1.3 進入PAI NotebookGallery

登錄PAI控制臺。

在左側(cè)導航欄中,選擇快速開始>NotebookGallery。

在Notebook Gallery頁面,單擊進入“LLaMA Factory多模態(tài)微調(diào)實踐:微調(diào)Qwen2-VL構建文旅大模型”教程。

在詳情頁面,您可查看到預置的LLaMA Factory多模態(tài)微調(diào)實踐:微調(diào)Qwen2-VL構建文旅大模型教程,單擊右上角的在DSW中打開。

在請選擇對應實例對話框中,單擊新建DSW實例。

1.4 創(chuàng)建PAI-DSW實例

在配置實例頁面,自定義輸入實例名稱,例如DSW_LlamaFactory。

說明:

GPU推薦使用 24GB 顯存的 A10(ecs.gn7i-c8g1.2xlarge)或更高配置。※ 支持免費試用的資源:

ecs.gn7i-c8g1.2xlarge、ecs.gn6v-c8g1.2xlarge、ecs.g6.xlarge

在配置實例頁面的選擇鏡像區(qū)域,請確認鏡像是否為官方鏡像的modelscope:1.14.0-pytorch2.1.2-gpu-py310-cu121-ubuntu22.04

在配置實例頁面,未提及的參數(shù)保持默認即可,單擊確認,創(chuàng)建實例。

請您耐心等待大約3分鐘左右,當狀態(tài)變?yōu)檫\行中時,表示實例創(chuàng)建成功,點擊打開NoteBook。

1.5 運行Notebook教程文件

安裝LLaMA Factory

根據(jù)教程指引,依次運行命令。

說明:單擊命令左側(cè)的運行?按鈕表示開始運行任務,當左側(cè)為?號時表明成功運行結(jié)束。

下載數(shù)據(jù)集

LLaMA-Factory 項目內(nèi)置了豐富的數(shù)據(jù)集,放在了 data目錄下。您可以跳過本步驟,直接使用內(nèi)置數(shù)據(jù)集。您也可以準備自定義數(shù)據(jù)集,將數(shù)據(jù)處理為框架特定的格式,放在 data 下,并且修改 dataset_info.json 文件。

本教程準備了一份多輪對話數(shù)據(jù)集,運行下述命令下載數(shù)據(jù)。

說明:單擊命令左側(cè)的運行?按鈕表示開始運行任務,當左側(cè)為?號時表明成功運行結(jié)束。

2. 模型微調(diào)

2.1 啟動 Web UI

單擊命令左側(cè)的運行?按鈕表示開始運行任務,當左側(cè)為?號時表明成功運行結(jié)束。

然后單擊返回的URL地址,進入Web UI頁面。

2.2 配置參數(shù)

進入 WebUI 后,可以切換語言到中文(zh)。首先配置模型,本教程選擇 Qwen2VL-2B-Chat 模型,微調(diào)方法修改為 full,針對小模型使用全參微調(diào)方法能帶來更好的效果。 

數(shù)據(jù)集使用上述下載的 train.json。

可以點擊「預覽數(shù)據(jù)集」。點擊關閉返回訓練界面。

設置學習率為 1e-4,訓練輪數(shù)為 10,更改計算類型為 pure_bf16,梯度累積為 2,有利于模型擬合。

在其他參數(shù)設置區(qū)域修改保存間隔為 1000,節(jié)省硬盤空間。

2.3 啟動微調(diào)

將輸出目錄修改為 train_qwen2vl,訓練后的模型權重將會保存在此目錄中。點擊「預覽命令」可展示所有已配置的參數(shù),您如果想通過代碼運行微調(diào),可以復制這段命令,在命令行運行。

點擊「開始」啟動模型微調(diào)。 

啟動微調(diào)后需要等待一段時間,待模型下載完畢后可在界面觀察到訓練進度和損失曲線。模型微調(diào)大約需要 14 分鐘,顯示“訓練完畢”代表微調(diào)成功。

3. 模型對話

選擇「Chat」欄,將檢查點路徑改為 train_qwen2vl,點擊「加載模型」即可在 Web UI 中和微調(diào)后的模型進行對話。

首先點擊下載測試圖片1或測試圖片2,并上傳至對話框的圖像區(qū)域,接著在系統(tǒng)提示詞區(qū)域填寫“你是一個導游,請生動有趣地回答游客提出的問題”。在頁面底部的對話框輸入想要和模型對話的內(nèi)容,點擊提交即可發(fā)送消息。

發(fā)送后模型會逐字生成回答,從回答中可以發(fā)現(xiàn)模型學習到了數(shù)據(jù)集中的內(nèi)容,能夠恰當?shù)啬7聦в蔚恼Z氣介紹圖中的山西博物院。 

點擊「卸載模型」,點擊檢查點路徑輸入框取消勾選檢查點路徑,再次點擊「加載模型」,即可與微調(diào)前的原始模型聊天。 

重新向模型發(fā)送相同的內(nèi)容,發(fā)現(xiàn)原始模型無法準確識別山西博物院。 

三、資源清理和后續(xù)操作

  1. 資源清理
  2. 后續(xù)使用

文章轉(zhuǎn)自微信公眾號@阿里云開發(fā)者

上一篇:

探索LLM推理全階段的JSON格式輸出限制方法

下一篇:

阿里云開源AI應用開發(fā)框架:Spring AI Alibaba
#你可能也喜歡這些API文章!

我們有何不同?

API服務商零注冊

多API并行試用

數(shù)據(jù)驅(qū)動選型,提升決策效率

查看全部API→
??

熱門場景實測,選對API

#AI文本生成大模型API

對比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力

25個渠道
一鍵對比試用API 限時免費

#AI深度推理大模型API

對比大模型API的邏輯推理準確性、分析深度、可視化建議合理性

10個渠道
一鍵對比試用API 限時免費