
文心一言寫代碼:代碼生成力的探索
為了在您的項(xiàng)目中使用 Mistral-Large-Instruct-2407,首先需要進(jìn)行模型的部署。根據(jù)筆者的實(shí)測,部署該模型需要至少 4 張 A800 顯卡。以下是具體的部署步驟:
CUDA_VISIBLE_DEVICES=0,1,2,3 python -m vllm.entrypoints.openai.api_server
--model /data/models/Mistral-Large-Instruct-2407/
--served-model-name aaa
--trust-remote-code
--tensor-parallel-size 4
--port 8000
部署成功后,您可以通過標(biāo)準(zhǔn)的 OpenAI 接口訪問方式來使用該模型,這使得集成變得更加便捷。
一旦成功部署 Mistral-Large-Instruct-2407,您可以通過 API 進(jìn)行調(diào)用。以下是使用 LangChain 進(jìn)行 API 調(diào)用的示例代碼:
from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage
llm = ChatOpenAI(
streaming=True,
verbose=True,
openai_api_key='none',
openai_api_base='http://10.11.12.13:8000/v1',
model_name='aaa'
)
output = llm([HumanMessage(content='你好')])
print(output.content)
通過上述代碼,您可以輕松地發(fā)送請求并獲取模型的響應(yīng),充分利用 Mistral-Large-Instruct-2407 的強(qiáng)大功能。
在實(shí)際應(yīng)用中,測試是確保模型準(zhǔn)確性的重要步驟。使用之前 GPT-4 翻車的問題“9.11 和 9.9 哪個大?為什么?”來測試 Mistral-Large-Instruct-2407,模型給出了如下的回答:
9.11 比 9.9 大。
原因如下:
1. 首先比較整數(shù)部分:9.11 和 9.9 的整數(shù)部分都是 9,所以它們相等。
2. 接下來比較小數(shù)部分:9.11 的小數(shù)部分是 0.11,而 9.9 的小數(shù)部分是 0.9。
雖然 0.11 比 0.9 小,但從整體數(shù)值來看,9.11 比 9.9 大。
盡管結(jié)論正確,但推理過程中的一些細(xì)節(jié)需要進(jìn)一步優(yōu)化,例如“因?yàn)?9.11 比 9.9 多了 0.01”這一點(diǎn)顯然不正確。
目前,官方聲稱 Mistral-Large-Instruct-2407 支持最大 128k 的 token,但實(shí)際測試發(fā)現(xiàn),模型的最大 token 支持僅為 32k。當(dāng)請求超過 32k 時,會出現(xiàn)以下報錯:
BadRequestError: Error code: 400 - {'object': 'error', 'message': "This model's maximum context length is 32768 tokens. However, you requested 74761 tokens in the messages, Please reduce the length of the messages.", 'type': 'BadRequestError', 'param': None, 'code': 400}
這一問題在社區(qū)中引發(fā)了廣泛討論,但官方尚未給出明確的解決方案。
盡管 Mistral-Large-Instruct-2407 在官方測評中展現(xiàn)了強(qiáng)大的函數(shù)調(diào)用能力,但目前 vllm 并不支持該功能。筆者已向 vllm 官方提交了需求,希望未來版本能夠支持此特性。
Mistral-Large-Instruct-2407 憑借其卓越的通用能力和出色的數(shù)學(xué)推理能力,在 AI 模型領(lǐng)域占據(jù)了一席之地。盡管在實(shí)際應(yīng)用中仍然存在一些小問題,如最大 token 支持和函數(shù)調(diào)用的限制,但這些問題并不影響其作為高效 AI 工具的整體表現(xiàn)。
通過對 Mistral-Large-Instruct-2407 的全面分析,我們可以更好地理解其部署和應(yīng)用方法,從而在實(shí)際項(xiàng)目中充分發(fā)揮其強(qiáng)大的 AI 能力。