當前許多語言模型在處理長序列數據時表現有限,而通過更長上下文的訓練,可以顯著提升模型在處理大型文檔和復雜數據輸入方面的能力。這對于文檔審閱和長文本生成等任務尤為重要。
Together平臺現支持Llama 3.1 8B和70B模型的微調,最高可擴展至32K的上下文長度。用戶只需在創建微調任務時指定以下模型名稱之一即可:
meta-llama/Meta-Llama-3.1-8B-32k-Instruct-Referencemeta-llama/Meta-Llama-3.1-70B-32k-Instruct-Reference在實際應用中,通過合成重復任務和長文檔摘要的實驗結果表明,微調后的Llama 3.1-8B在ROUGE分數上比70B基礎模型提升了10%以上。這不僅降低了推理成本,還顯著提升了任務性能。
為了簡化開發者的工作流程,Fine-tuning 聊天機器人和虛擬助手等需要高質量上下文感知響應的應用。
開發者可以通過上傳JSON Lines文件提交對話數據,每行包含一個帶消息列表的JSON對象。例如:
{
"messages": [
{"role": "system", "content": "這是系統提示。"},
{"role": "user", "content": "你好嗎?"},
{"role": "assistant", "content": "我很好,謝謝!需要什么幫助?"}
]
}
此外,通過--train-on-inputs選項,用戶可以選擇訓練完整示例或僅訓練助理消息。默認情況下,僅訓練模型輸出,但在某些情況下,設為false可能會帶來更好的效果。
案例研究表明,使用該功能后,對話問答任務的精確匹配分數從0.043提升至0.62,顯著提高了模型的性能。
通過優化訓練流程,Fine-tuning API在不增加超參數和成本的前提下,顯著提升了模型性能。例如,在Llama 3.1-8B模型上的實驗顯示,相比之前的微調結果,性能提升了10%-200%。
這些改進使用戶能夠在上傳自有數據集后,持續獲得穩定的質量提升,即使與強大的基線模型相比,性能仍有顯著進步。
驗證數據集功能允許用戶在訓練期間監控模型在未見數據上的表現,從而評估其泛化能力。這一功能有助于選擇最佳的超參數和訓練配置。
用戶可以通過以下參數啟動周期性評估任務:
--validation-file:指定驗證文件ID--n-evals:設置評估次數示例命令如下:
together fine-tuning create --training-file $TRAINING_FILE_NAME --validation-file $VALIDATION_FILE_NAME --n-evals 10 --model "meta-llama/Meta-Llama-3.1-8B-Instruct-Reference"
為了提升用戶體驗,Fine-tuning API還新增了多項細節改進:
--batch-size max選項,自動啟用最大批次大小,無需手動調整。--warmup-ratio和--min-lr-ratio參數,分別控制預熱步數比例和最終學習率與峰值的比率。這些改進進一步簡化了微調任務的配置和執行流程。
Together平臺的Fine-tuning API提供了以下優勢:
Together平臺的Fine-tuning API通過引入長上下文微調、對話與指令數據格式支持、訓練質量提升、驗證數據集支持以及多項體驗優化,為開發者提供了更強大的工具集。無論是提升模型性能還是優化開發流程,這些新功能都能幫助用戶更高效地實現目標。
原文鏈接: https://www.together.ai/blog/fine-tuning-api-introducing-long-context-training-conversation-data-support-and-more-configuration-options