在后訓練階段,他們使用與 Llama 3.1 類似的方法,通過在預訓練模型之上進行多輪對齊來生成最終的聊天模型。每一輪都包括監督微調(SFT)、拒絕采樣(RS)和直接偏好優化(DPO)。

在后訓練階段,他們將上下文長度支持擴展到 128K 標記,同時保持與預訓練模型相同的質量。他們還進行合成數據生成,通過仔細的數據處理和過濾來確保高質量。他們精心混合數據,以優化多種能力的高質量表現,如總結、重寫、遵循指令、語言推理和工具使用。

為了使社區能夠在這些模型上進行創新,他們與全球排名前兩位的移動系統芯片(SoC)公司高通和聯發科,以及為 99% 的移動設備提供基礎計算平臺的 Arm 密切合作。今天發布的權重基于 BFloat16 數值。他們的團隊正在積極探索將運行得更快的量化變體,他們希望很快能分享更多相關信息。

Llama Stack 發布

2023年7月,Meta 發布了關于 Llama Stack API 的意見征詢,這是一個標準化接口,用于規范工具鏈組件(如微調、合成數據生成等),以定制 Llama 模型并構建智能應用程序。社區反響熱烈。

此后,Meta 一直在努力將 API 付諸實踐。他們為推理、工具使用和 RAG 構建了 API 的參考實現。此外,他們還與合作伙伴合作,幫助他們適配成為 API 的提供者。最后,他們引入了 Llama Stack Distribution 作為一種打包多個 API 提供者的方式,這些提供者能夠很好地協同工作,為開發者提供單一端點。他們現在正與社區分享一種簡化且一致的體驗,使他們能夠在多種環境中使用 Llama 模型,包括本地、云端、單節點和設備端。

完整的發布內容包括:

  1. 1. Llama CLI (命令行界面),用于構建、配置和運行 Llama Stack 發行版
  2. 2. 多種語言的客戶端代碼,包括 Python、Node.js、Kotlin 和 Swift
  3. 3. Llama Stack Distribution Server 和 Agents API Provider 的 Docker 容器
  4. 4. 多個發行版
    1. 1. 通過 Meta 內部實現和 Ollama 的單節點 Llama Stack 發行版
    2. 2. 通過 AWS、Databricks、Fireworks 和 Together 的云端 Llama Stack 發行版
    3. 3. 通過 PyTorch ExecuTorch 實現的 iOS 設備上的 Llama Stack 發行版
    4. 4. 由 Dell 支持的本地部署 Llama Stack 發行版

系統級安全

采取開放方法有許多好處。它有助于確保全球更多人能夠獲得 AI 帶來的機會,防止權力集中在少數人手中,并在社會中更公平、更安全地部署技術。在 Meta 不斷創新的同時,他們也希望確保能夠賦予開發者構建安全和負責任系統的能力。

在他們之前的發布和持續努力支持負責任創新的基礎上,今天他們為他們的安全保障系列添加了新的更新:

這些新解決方案已集成到他們的參考實現、演示和應用程序中,并可供開源社區從第一天起就使用。

立即嘗試 Llama 3.2

Llama 3.2 有望比以往任何時候都能接觸到更多人,并實現令人興奮的新用例。Meta 相信,與開源社區共享這些模型是不夠的。他們希望確保開發者也擁有負責任地使用 Llama 構建所需的工具。作為他們持續負責任發布工作的一部分,他們為開發者提供新的工具和資源,并且一如既往地會在他們的負責任使用指南中更新最佳實踐。

文章轉自微信公眾號@知常明智

上一篇:

提速 RAG 應用:用 DeepSeek API 替換本地 Ollama 模型,LlamaIndex 實戰解析

下一篇:

Open-Meteo 的歷史天氣數據 API 詳解
#你可能也喜歡這些API文章!

我們有何不同?

API服務商零注冊

多API并行試用

數據驅動選型,提升決策效率

查看全部API→
??

熱門場景實測,選對API

#AI文本生成大模型API

對比大模型API的內容創意新穎性、情感共鳴力、商業轉化潛力

25個渠道
一鍵對比試用API 限時免費

#AI深度推理大模型API

對比大模型API的邏輯推理準確性、分析深度、可視化建議合理性

10個渠道
一鍵對比試用API 限時免費