Mixtral 8x7B v0.1

Mixtral 8x7B v0.1

專用API
服務商 服務商: together
【更新時間: 2025.04.21】 Mixtral 8x7B v0.1 是 Mistral AI 于 2023 年 12 月發布的開源大型語言模型,采用稀疏混合專家(SMoE)架構。模型由 8 個各含 70 億參數的專家組成,總參數量達 46.7 億...
瀏覽次數
7
采購人數
0
試用次數
0
! SLA: N/A
! 響應: N/A
! 適用于個人&企業
收藏
×
完成
取消
×
書簽名稱
確定
<
產品介紹
>

什么是Mixtral 8x7B v0.1接口?

由服務使用方的應用程序發起,以Restful風格為主、通過公網HTTP協議調用Mixtral 8x7B v0.1,從而實現程序的自動化交互,提高服務效率。
<
關于我們
>
together
企業
Together AI 是一家專注于人工智能加速的云平臺,提供快速推理、微調和訓練服務。公司主營業務包括Together Inference、Together Fine-tuning、Together Custom Models和Together GPU Clusters,旨在幫助企業以更低的成本、更高的效率運行、微調和訓練生成性AI模型。Together AI 以其高性能、準確性和成本效益的產品組合而聞名,支持200多個開源模型,并提供靈活的部署選項,包括無服務器和專用實例。
聯系信息
API接口列表
<
依賴服務
>
<
關于我們
>
together
企業
Together AI 是一家專注于人工智能加速的云平臺,提供快速推理、微調和訓練服務。公司主營業務包括Together Inference、Together Fine-tuning、Together Custom Models和Together GPU Clusters,旨在幫助企業以更低的成本、更高的效率運行、微調和訓練生成性AI模型。Together AI 以其高性能、準確性和成本效益的產品組合而聞名,支持200多個開源模型,并提供靈活的部署選項,包括無服務器和專用實例。
聯系信息