Mixtral 8x7B v0.1
專用API
新
【更新時間: 2025.04.21】
Mixtral 8x7B v0.1 是 Mistral AI 于 2023 年 12 月發布的開源大型語言模型,采用稀疏混合專家(SMoE)架構。模型由 8 個各含 70 億參數的專家組成,總參數量達 46.7 億...
咨詢
去服務商官網采購>
|
瀏覽次數
7
采購人數
0
試用次數
0
收藏
×
完成
取消
×
書簽名稱
確定
|
- API詳情
- 關于我們

產品介紹

什么是Mixtral 8x7B v0.1接口?
由服務使用方的應用程序發起,以Restful風格為主、通過公網HTTP協議調用Mixtral 8x7B v0.1,從而實現程序的自動化交互,提高服務效率。

關于我們

together
企業
Together AI 是一家專注于人工智能加速的云平臺,提供快速推理、微調和訓練服務。公司主營業務包括Together Inference、Together Fine-tuning、Together Custom Models和Together GPU Clusters,旨在幫助企業以更低的成本、更高的效率運行、微調和訓練生成性AI模型。Together AI 以其高性能、準確性和成本效益的產品組合而聞名,支持200多個開源模型,并提供靈活的部署選項,包括無服務器和專用實例。
聯系信息
API接口列表

依賴服務


關于我們

together
企業
Together AI 是一家專注于人工智能加速的云平臺,提供快速推理、微調和訓練服務。公司主營業務包括Together Inference、Together Fine-tuning、Together Custom Models和Together GPU Clusters,旨在幫助企業以更低的成本、更高的效率運行、微調和訓練生成性AI模型。Together AI 以其高性能、準確性和成本效益的產品組合而聞名,支持200多個開源模型,并提供靈活的部署選項,包括無服務器和專用實例。
聯系信息