Mixtral 8x7B Instruct v0.1

Mixtral 8x7B Instruct v0.1

專用API
服務商 服務商: together
【更新時間: 2025.04.21】 Mixtral 8x7B Instruct v0.1 是 Mistral AI 于 2023 年 12 月發(fā)布的開源指令微調(diào)語言模型,采用稀疏混合專家(SMoE)架構(gòu),擁有 46.7 億總參數(shù)。每個 token 推...
瀏覽次數(shù)
53
采購人數(shù)
1
試用次數(shù)
0
! SLA: N/A
! 響應: N/A
! 適用于個人&企業(yè)
收藏
×
完成
取消
×
書簽名稱
確定
<
產(chǎn)品介紹
>
<
關(guān)于我們
>
together
企業(yè)
Together AI 是一家專注于人工智能加速的云平臺,提供快速推理、微調(diào)和訓練服務。公司主營業(yè)務包括Together Inference、Together Fine-tuning、Together Custom Models和Together GPU Clusters,旨在幫助企業(yè)以更低的成本、更高的效率運行、微調(diào)和訓練生成性AI模型。Together AI 以其高性能、準確性和成本效益的產(chǎn)品組合而聞名,支持200多個開源模型,并提供靈活的部署選項,包括無服務器和專用實例。
聯(lián)系信息
API接口列表
<
依賴服務
>
<
關(guān)于我們
>
together
企業(yè)
Together AI 是一家專注于人工智能加速的云平臺,提供快速推理、微調(diào)和訓練服務。公司主營業(yè)務包括Together Inference、Together Fine-tuning、Together Custom Models和Together GPU Clusters,旨在幫助企業(yè)以更低的成本、更高的效率運行、微調(diào)和訓練生成性AI模型。Together AI 以其高性能、準確性和成本效益的產(chǎn)品組合而聞名,支持200多個開源模型,并提供靈活的部署選項,包括無服務器和專用實例。
聯(lián)系信息