
一文講透 AI Agent 與 AI Workflow 的區別和深度解析:從自動化到智能化的演進
最近Deepseek成為了AI圈中最火爆的話題,一方面通過稀疏激活的MoE架構、MLA注意力機制優化及混合專家分配策略等創新手段,實現了高效的訓練和推理能力,同時大幅降低了API調用成本,達到了行業領先水平。另一方面,Deepseek更是以7天實現用戶數破億的速度,一舉超越了OpenAI的ChatGPT(ChatGPT為2個月)。網上關于本地部署Deepseek-R1的教程,更是如同雨后春筍般出現在各個網絡平臺上。然而,這些本地部署教程往往會告訴你Deepseek-R1有多強大,但不會告訴你本地部署的“蒸餾版”Deepseek-R1相比“滿血版”究竟有多差。值得注意的是,目前公開發布的小尺寸的DeepSeek-R1模型,均是通過Qwen或Llama從R1中蒸餾過來,尺寸有所縮小,以適應不同性能設備調用DeepSeek-R1模型。換句話說,無論是7B還是32B的DeepSeek-R1,本質上更像是“R1味兒”的Qwen模型,差不多是“牛肉風味肉卷”和“牛肉卷”的差距。雖然擁有前者部分特性,但更多是后者照貓畫虎實現類似的推理功能。毋庸置疑的是,隨著模型尺寸的縮小,其性能也會變得更差,與“滿血版”R1的差距也會更大。而今天,大模型之家就帶你來看看,不同尺寸的DeepSeek-R1與“滿血版”差距究竟有多大?
在語言能力測試環節,大模型之家讓7B、32B、671B的DeepSeek-R1,分別用“新年快樂萬事如意”寫一首藏頭詩。在這個似乎已經被各大模型“玩爛了”的場景下,在很多人看來是LLM最小兒科的場景。然而正如那句“如果不出意外的話,就要出意外了”。在這一環節中,7B版本的R1竟然率先出現了bug!
可以看到,左邊的7B版本R1的輸出結果既沒能“藏頭”,也不像一首“詩”,甚至還在文中開始說起了英語。顯然,在最基礎的文字生成能力上,7B并沒有達到“及格線”。相比之下,32B的R1可以正常輸出文本內容,成功完成了“藏頭詩”的創作。雖然從押韻方面存在些許瑕疵,但勝在七言律詩對仗工整,內容上也沒有邏輯錯誤。
當然,效果最好的還要數“滿血版”的R1,不僅對仗工整,韻腳得體,同時還給出了詩詞的賞析內容。明確了“新年快樂萬事如意”的“藏頭詩”背后,寄寓了對新歲萬事順遂的美好祝愿。
為了探究是否是因為小尺寸導致語言能力下降,大模型之家還采用了尺寸相近的9B的GLM4用同樣的提示詞進行測試。結果發現在語言表達能力方面,GLM4并不輸給DeepSeek-R1,可見,當R1規模小到一定程度時,其基本的文本能力方面也會受到嚴重影響。
在測試完語言能力之后,我們在將R1與網絡搜索相結合,測試一下不同尺寸下,對于網絡內容的匯總能力。大模型之家以一首杜甫的《登高》來測試一下R1大模型在聯網狀態下的表現。
乍一看7B模型輸出的表現足夠優秀(左),但是實際測試中,大模型之家發現7B模型的輸出結果并不穩定。偶爾會出現右邊對于詩詞理解出現偏差的場景,由此也能夠看出,在同等的網絡搜索情況下,R1模型因為尺寸縮小,在語言理解與生成能力方面受到了較大的影響。
相比之下,32B的R1輸出就相對穩定,雖然在輸出結果上會存在顯示“整首詩”和“一句詩”的左右橫跳,但對于詩詞內容理解的準確性有了較大提高。
而“滿血版”R1依舊是表現最為優秀,不僅能夠完整展示詩句內容,同時還會在答案中增加一些點評與背景陳述,增加回答的知識性與專業性。另一組測試,大模型之家選用了目前游戲中某角色的配隊,來測試7B與32B的語言理解能力。
在這一組測試中,7B模型出現了游戲中不存在的角色,而32B則能夠準確把握角色名稱,同時,在配隊的推薦理由方面,32B模型給出的內容也更加科學合理。
而在測試的第二個環節,我們用一道經典的“雞兔同籠”問題來考考不同尺寸的R1模型。提示詞為:一個籠子,里頭有雞和兔子,一共有25個頭和76只腳,請問籠子里邊雞和兔子各有多少只?
也許是“雞兔同籠”的問題對于R1而言過于簡單,那么換一道更難的“一個三棱柱的上底和下底為兩個等腰直角三角形,每個等腰三角形的直角邊長為16。直棱柱的高度等于等腰直角三角形的斜邊長度。求直棱柱的表面積。”
比較令人驚訝的是,無論是7B還是32B的模型,都可以輸出正確的答案。可見,在數學運算能力方面,蒸餾盡可能保留了R1模型的數學能力。
最后,讓我們再來對比一下7B與32B的代碼能力。這個環節,大模型之家要求R1編寫一個“可以在瀏覽器上打開的貪吃蛇游戲”。
代碼太長,讓我們直接來看生成好的結果:

Deepseek-R1 7B的生成的游戲程序存在bug,只是一張靜態的圖片,蛇無法移動。

而Deepseek-R1 32B的生成的游戲程序可以正常運行,可以通過鍵盤方向鍵控制蛇的正常移動,同時面板可以正常計分。

## 05本地部署門檻高,普通用戶慎嘗試
從一系列的測試看來,DeepSeek-R1的7B、32B,都與“滿血版”671B存在比較明顯的差距,因此本地部署更多是用來搭建私有數據庫,或讓有能力的開發者進行微調與部署使用。對于一般用戶而言,無論從技術還是設備門檻都比較高。官方測試結論也顯示,32B的DeepSeek-R1大約能夠實現90%的671B的性能,且在AIME 2024、GPQA Daimond、MATH-500等部分場景之下效果略優于OpenAI的o1-mini。

而在實際體驗中,也能夠看到與官方測試結論基本吻合,32B以上模型勉強尚有本地化部署的可用性,而再小尺寸的模型在基礎能力方面有些過于薄弱,甚至輸出結果不敵同尺寸其他模型。尤其是網絡上大量的本地部署教程所推薦的1.5B、7B、8B尺寸模型,還是忘了它們吧……除了配置需求低、速度快,用起來并不理想。

左為7B模型生成信息、右為32B模型生成信息前者生成速度是后者3.5倍
所以,從結論上來說,如果你真想本地部署一個DeepSeek-R1模型,那么大模型之家建議從32B起步開始搭建,才有相對完整的大模型體驗。那么,部署32B模型的代價是什么呢?

圖片來源:51CTO運行32B的R1模型,官方建議是64GB內存和32-48GB顯存,再配合對應的CPU,一臺電腦主機的價格大約在20000元以上。如果以最低配置運行,(20GB內存+24GB顯存),價格也要超過萬元。(除非你買API)

筆者所使用的設備是M2 Max的MacBook Pro(12核CPU+30核GPU+32GB統一內存),在運行32B模型時,每秒僅能輸出8-9 tokens,生成速度很慢,同時整機功耗持續維持在60-80W,這也意味著,如果用電池供電持續使用大模型,僅有1個小時的使用時間。不僅如此,本地化部署R1大模型后,還需要附加的方式為模型增加聯網功能或本地化數據庫,否則模型內的數據會與日新月異的互聯網脫節,體驗上多數情況遠不及目前已經全面接入聯網功能的免費大模型產品。所以,對于大多數普通用戶而言,你費勁心力搭建的本地大模型,可能真的未必有市面上主流的免費大模型產品來得簡單、方便、效果好,更多只是讓你過一把部署本地大模型的癮。

DeepSeek系列模型的成功不僅改變了中美之間的技術競爭格局,更對全球范圍內的科技創新生態產生了深遠影響。據統計,已經有超過50個國家與DeepSeek達成了不同程度的合作協議,在技術應用和場景開發方面展開深度合作。從DeepSeek引發的全球關注可以看出,人工智能已經成為重塑國際格局的重要力量。面對這場前所未有的科技變革,如何將技術創新優勢轉化為持續的競爭能力,同時構建開放包容的合作網絡,將是未來面臨的關鍵挑戰。對于中國而言,這不僅是一場技術實力的較量,更是一場科技創新話語權的爭奪。
## 近期活動?




原文轉載自:https://mp.weixin.qq.com/s/AHHKXUSHrhfKNArX7c8ikg