
文心一言寫代碼:代碼生成力的探索
--model /data/models/Mistral-Large-Instruct-2407/
--served-model-name aaa
--trust-remote-code
--tensor-parallel-size 4
--port 8000
部署完成后,可以使用標準OpenAI接口進行訪問。
以下Python代碼展示了如何通過LangChain庫與模型進行交互:
from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage
llm = ChatOpenAI(
streaming=True,
verbose=True,
openai_api_key='none',
openai_api_base='http://10.11.12.13:8000/v1',
model_name='aaa'
)
output = llm([HumanMessage(content='你好')])
print(output.content)
為了驗證模型的推理能力,可以使用之前被認為是挑戰性的問題進行測試。例如,問題“9.11和9.9哪個大?”是一個經典的測試問題。Mistral-Large-Instruct-2407能夠正確回答,但其推理過程尚需優化。
9.11 比 9.9 大。
原因如下:
1. 首先比較整數部分:9.11 和 9.9 的整數部分都是 9,所以它們相等。
2. 接下來比較小數部分:
- 9.11 的小數部分是 0.11。
- 9.9 的小數部分是 0.9。
0.11 比 0.9 小,但我們需要比較整體數值,而不是單獨的小數部分。
盡管模型的回答是正確的,但其推理過程中存在邏輯錯誤,如“因為 9.11 比 9.9 多了 0.01”這一點仍需改進。
Mistral-Large-Instruct-2407官方宣稱支持最大128k token,但當前配置文件顯示最大支持32k token。這一限制在實際應用中會導致超出限制的請求報錯:
BadRequestError: Error code: 400 - {'object': 'error', 'message': "This model's maximum context length is 32768 tokens..."}
目前,vllm框架尚未支持Mistral-Large-Instruct-2407的函數調用,這在某些應用場景中會限制其功能。
Mistral-Large-Instruct-2407在通用能力上表現出色,尤其是在多語言支持和編程能力上,已經接近了GPT4的水平。其在MMLU上的準確度達到了84.0%,這在業內是一個顯著的成績。
未來版本可以在以下幾個方向進行改進:
問:Mistral-Large-Instruct-2407支持哪些編程語言?
問:如何優化模型的推理速度?
問:模型支持的最大token數量是多少?
問:如何處理超出token限制的錯誤?
問:模型的通用能力如何與GPT4比較?
通過以上的詳細介紹,相信您對Mistral-Large-Instruct-2407的部署和使用有了更深入的了解。