
如何快速實現REST API集成以優化業務流程
在后訓練階段,他們使用與 Llama 3.1 類似的方法,通過在預訓練模型之上進行多輪對齊來生成最終的聊天模型。每一輪都包括監督微調(SFT)、拒絕采樣(RS)和直接偏好優化(DPO)。
在后訓練階段,他們將上下文長度支持擴展到 128K 標記,同時保持與預訓練模型相同的質量。他們還進行合成數據生成,通過仔細的數據處理和過濾來確保高質量。他們精心混合數據,以優化多種能力的高質量表現,如總結、重寫、遵循指令、語言推理和工具使用。
為了使社區能夠在這些模型上進行創新,他們與全球排名前兩位的移動系統芯片(SoC)公司高通和聯發科,以及為 99% 的移動設備提供基礎計算平臺的 Arm 密切合作。今天發布的權重基于 BFloat16 數值。他們的團隊正在積極探索將運行得更快的量化變體,他們希望很快能分享更多相關信息。
2023年7月,Meta 發布了關于 Llama Stack API 的意見征詢,這是一個標準化接口,用于規范工具鏈組件(如微調、合成數據生成等),以定制 Llama 模型并構建智能應用程序。社區反響熱烈。
此后,Meta 一直在努力將 API 付諸實踐。他們為推理、工具使用和 RAG 構建了 API 的參考實現。此外,他們還與合作伙伴合作,幫助他們適配成為 API 的提供者。最后,他們引入了 Llama Stack Distribution 作為一種打包多個 API 提供者的方式,這些提供者能夠很好地協同工作,為開發者提供單一端點。他們現在正與社區分享一種簡化且一致的體驗,使他們能夠在多種環境中使用 Llama 模型,包括本地、云端、單節點和設備端。
完整的發布內容包括:
采取開放方法有許多好處。它有助于確保全球更多人能夠獲得 AI 帶來的機會,防止權力集中在少數人手中,并在社會中更公平、更安全地部署技術。在 Meta 不斷創新的同時,他們也希望確保能夠賦予開發者構建安全和負責任系統的能力。
在他們之前的發布和持續努力支持負責任創新的基礎上,今天他們為他們的安全保障系列添加了新的更新:
這些新解決方案已集成到他們的參考實現、演示和應用程序中,并可供開源社區從第一天起就使用。
Llama 3.2 有望比以往任何時候都能接觸到更多人,并實現令人興奮的新用例。Meta 相信,與開源社區共享這些模型是不夠的。他們希望確保開發者也擁有負責任地使用 Llama 構建所需的工具。作為他們持續負責任發布工作的一部分,他們為開發者提供新的工具和資源,并且一如既往地會在他們的負責任使用指南中更新最佳實踐。
文章轉自微信公眾號@知常明智