
企業(yè)工商數(shù)據(jù)API用哪種?
這一波技術(shù)迭代的背后,是直面應(yīng)用的底層邏輯。新一代大語言模型繼續(xù)保持多模態(tài)、長上下文等方面的性能優(yōu)勢,又因為速度和效率的大幅提升獲得了更多開發(fā)者的青睞。
在實際應(yīng)用場景中,新模型適用于處理高頻次、相對簡單的任務(wù),禁得起人們的反復(fù)調(diào)用。現(xiàn)在想要開發(fā)一個使用生成式 AI 技術(shù)的產(chǎn)品,不再是一件難事了。
最近,國內(nèi)大模型平臺市場份額領(lǐng)先的智譜,也正式宣布了新模型,并提出了一系列提升 AI 開發(fā)效率的工具。
智譜此前已經(jīng)上線了大模型的一鍵微調(diào)工具,這次更是決定將 GLM-4-Flash 免費。
智譜的最新版大模型 GLM-4-Flash 在 6 月份剛剛上線,在開放時 API 價格就已低至每 100 萬 token 0.1 元,吸引了大量開發(fā)者使用。不論是國內(nèi)還是國外,很多人都在社交網(wǎng)絡(luò)上 po 出了自己的使用心得。
這款大模型 API 的能力如何?我們自己也上手試了試。
首先,要想調(diào)用大模型能力,有最簡單的方法:通過 Python 腳本進行體驗。智譜的官網(wǎng)上提供了一些示例,只需將其中的 api key 替換成自己的并修改其中的具體內(nèi)容,就能很方便地使用這個大模型,比如可以在 VS Code 中使用它。
當然,你也可以將其集成到任何支持 API 接入的應(yīng)用之中。比如在這里,我們可以將其引入到筆記軟件 Obsidian 中。選擇 BMO Chatbot 插件,下載啟用之后,我們進入其設(shè)置選項,找到 API Connections 下的 OpenAI。這里之所以選擇 OpenAI,是因為 GLM-4-Flash 的 API 協(xié)議基本與 OpenAI 一致。
之后在 OpenAI-Based URL 中填入智譜的模型鏈接:https://open.bigmodel.cn/api/paas/v4/,并在 OpenAI API Key 填入我們需要使用的 key。為了使用 GLM-4-Flash 模型,你還需要修改該插件的 data.json 文件,將 glm-4-flash 加入到 openAIBaseModels 中。
這樣你就可以將 GLM-4-Flash 引入到你的筆記工作流程之中,以下展示了部署好的示例,我們讓 GLM-4-Flash 分析了一篇有關(guān)視覺語言模型的文章并讓其建議了一些標題。
當然,你也可以直接使用 GLM-4-Flash 生成文本筆記:
看起來效果都很不錯。
另一方面,說到大模型微調(diào),上周二 OpenAI 正式上線了大模型的微調(diào)功能,引發(fā)了 AI 領(lǐng)域的關(guān)注。
OpenAI 的初衷,是幫助開發(fā)者能夠低成本地構(gòu)建個性化的應(yīng)用。這次的智譜推出的大模型微調(diào)功能,也可以讓我們通過微調(diào)工具,加入自身獨有的場景數(shù)據(jù),對平臺提供的基礎(chǔ)模型進行微調(diào),快速使其定制化。這樣做既符合了業(yè)務(wù)場景,也不需要進行復(fù)雜的調(diào)整或重新訓練。
如果你認為基礎(chǔ)模型無法滿足復(fù)雜任務(wù)的需求時,使用微調(diào)可以獲得更好的效果。微調(diào)可以讓大模型表現(xiàn)出特定的風格,或是提高輸出的可靠性,讓大模型可以完成更加復(fù)雜的任務(wù)。
智譜目前已開放了 GLM-4-Flash、GLM-4-9B 等模型的 LoRA 微調(diào)和全參數(shù)微調(diào)能力。在微調(diào)的過程中,你需要準備并上傳訓練數(shù)據(jù)訓練大模型,嘗試部署并評估結(jié)果,最后完成的模型也可以快速部署。
我們可以看到,如今各家大模型公司提供的產(chǎn)品,越來越貼近實際需求了。這些充分考慮開發(fā)者,能夠用起來的工具,對于 AI 的大規(guī)模應(yīng)用來說意義重大。
智譜提供的一系列新能力,背后作為支撐的基礎(chǔ)都是 GLM-4-Flash 大模型。
GLM-4 大模型是智譜在今年 1 月推出的新一代基座大模型,它在十余項指標上逼近或達到了大模型標桿 GPT-4 的水準。與此同時,GLM-4 支持了更長的上下文、更強的多模態(tài)、更快的推理速度,以及更多并發(fā)請求,大大降低了推理成本。
在此基礎(chǔ)上發(fā)展出的 GLM-4-Flash,則帶來了一系列技術(shù)優(yōu)勢:
GLM-4-Flash 模型已經(jīng)在大量測試中展現(xiàn)了能力。
從模型界面來看,GLM-4-Flash 支持多輪對話、自定義系統(tǒng)指令構(gòu)建(比如設(shè)定模型身份、任務(wù)目標)以及網(wǎng)頁搜索、知識庫搜索和函數(shù)調(diào)用等工具調(diào)用功能。
此外,用戶也可以自由調(diào)整 GLM-4-Flash 對話窗口的最大 tokens 數(shù)量(輸入上下文長度)、模型溫度(控制生成的隨機性和創(chuàng)造性)、top_p(控制回答風格,保證輸出結(jié)果正確性的同時增加多樣性)。
體驗地址:https://open.bigmodel.cn/
測試 1:先來一道前段時間讓很多大模型翻車的「9.11 和 9.9 哪個更大」問題,很容易就答對了。
類似的數(shù)字比較同樣答對了。從解題思路來看,GLM-4-Flash 掌握了正確的小數(shù)位比較方法。
而目前版本的 GPT-4o 全都翻車了。
測試 2:此前研究機構(gòu) LAION 在一項研究中發(fā)現(xiàn),GPT-3.5/4、Llama、Gemini、Claude 和 Mistral 等大模型回答「愛麗絲(女性)有 N 個兄弟,有 M 個姐妹,那么愛麗絲的兄弟有多少個姐妹呢?」問題時,正確率非常低。
我們讓 GLM-4-Flash 試了試,回答正確。
改變了主角性別和親屬關(guān)系之后,GLM-4-Flash 同樣可以理解,再次回答對了。
測試 3:對于多人真假話判斷問題,GLM-4-Flash 能夠理清各種假設(shè)情況,并最終給出了正確答案。
作為對比,GPT-4o 回答錯誤。
比如 2024 巴黎奧運會中國體育代表團斬獲金銀銅牌的總數(shù)量,結(jié)果無誤。
還有代碼生成、視頻腳本制作、角色扮演、文章擴寫等一系列能力,據(jù)說能力都不錯。
如今,GLM-4-Flash 已經(jīng)上線兩個月,人們都在用這款大模型做什么?很多人展示了自己的應(yīng)用方向,或許能給我們帶來一些啟發(fā)。據(jù)介紹:
看來,在速度更快,性能足夠強大的 GLM-4-Flash 版本上,一些簡單垂直,需要快速響應(yīng)的應(yīng)用已經(jīng)得到了充分的驗證。
不過對于通用的大模型來說,還有很多功能有待人們的發(fā)掘。
8 月 27 日,智譜 BigModel 開放平臺正式宣布:GLM-4-Flash 全部免費,同時開啟限時免費微調(diào)活動。
GLM-4-Flash 是智譜首次開放免費 API 的大模型,支持長度達 128K 的上下文。在用戶調(diào)用量上,智譜做到了原有調(diào)用用戶并發(fā)不變,新用戶有兩個并發(fā),還可以申請進一步提高。
而在 GLM-4-Flash 微調(diào)贈送額度上,如果立即申請,你可以獲得 500 萬 token (3 個月)的訓練資源包,限額 2000 位,先到先得。智譜還將開放 GLM-4-Flash 模型的更多能力,致力于構(gòu)建更好的部署平臺。
這一系列行動,展示了國內(nèi)大模型公司在應(yīng)用層面的獨特優(yōu)勢。在大模型技術(shù)對標國際先進水平的同時,國內(nèi) AI 的先頭部隊已經(jīng)打磨好「內(nèi)功」,通過系統(tǒng)優(yōu)化大幅提升了推理效率。
現(xiàn)在,免費開放的大模型已經(jīng)可以惠及廣大開發(fā)者,讓人不花一分錢就可以上線基于大模型的智能應(yīng)用。
不論如何,是時候體驗大模型的開發(fā)了,羊毛薅起來!
文章轉(zhuǎn)自微信公眾號@機器之心