模型使用的是Deepseek-R1-Distill-Qwen-32B-GGUF模型

輸出 Tokens大約是每秒36 tokens左如圖所示,(ChatGPT-3.5 每秒生成速度僅為40 個(gè)token)

image

然后使用LM Studio加載模型(下文有詳細(xì)的介紹為什么不使用ollama),開啟它的API調(diào)用,然后在同一個(gè)局域網(wǎng)下的MAC上使用最新版本的Cline來調(diào)用(之所以使用MAC是因?yàn)槲冶救瞬惶珪?huì)也不習(xí)慣使用Windows)實(shí)際的輸出速度效果可以在下面視頻視頻段落中查看, 如果你查看具體的配置要求,可以看一下這個(gè)顯卡和模型對照的天梯圖:KCORES 大語言模型推理專用顯存天梯如果你是筆記本用戶或者是使用AMD顯卡或者顯卡不太行的可以查看這里在本地進(jìn)行體驗(yàn)測試:怎么在家用筆記本上輕松部署和使用DeepSeek R1?視頻演示—為什么選擇本地部署DeepSeek R1?—這個(gè)問題也是一個(gè)讀者朋友在上一篇文章里面的留言留言,我直接把截圖發(fā)上來

image

這里再整理一下:

為什么是LM Studio不是ollama

LM Studio 是一款專門為本地運(yùn)行大語言模型(LLM)設(shè)計(jì)的桌面軟件。它的最大特點(diǎn)是讓復(fù)雜的 LLM 部署變得簡單直觀。說再直白一點(diǎn):它就是一個(gè)智能模型的"應(yīng)用商店"加"播放器"的結(jié)合體。

image

打開軟件后就能看到一個(gè)整潔的界面,上面列出了許多熱門的開源模型供你選擇,比如 Llama 2、Vicuna、Mistral,DeepSeek等。選擇模型就像在應(yīng)用商店下載應(yīng)用一樣簡單,只需點(diǎn)擊幾下就能完成。軟件會(huì)自動(dòng)判斷你的電腦配置,并推薦適合你硬件條件的模型版本。

image

更貼心的是,LM Studio 提供了圖形化的設(shè)置界面。你可以像調(diào)整音響設(shè)備一樣,輕松地調(diào)節(jié)模型運(yùn)行時(shí)使用多少 GPU 或 CPU 資源。還可以設(shè)定模型的"性格"- 也就是系統(tǒng)提示(System Prompt),告訴它應(yīng)該以什么樣的風(fēng)格和專業(yè)知識(shí)來回答問題。

image

你還能直接通過圖形化界面創(chuàng)建 API調(diào)用配置API的調(diào)用和查看API的調(diào)用日志。

image

所以你如果是初次接觸本地模型,建議你直接使用這個(gè)圖形界面,會(huì)方便直觀很多,鏈接地址: https://lmstudio.ai相關(guān)問題—如何在配置Cline調(diào)用本地模型? 可以查看這里:再見Cursor! Cline+DeepSeek-V3 雙雄組合引爆AI編程| 最強(qiáng)配置方案+代碼實(shí)例

image

原文轉(zhuǎn)載自:https://mp.weixin.qq.com/s/DmbpOwAsQz4yax78P3mV1g

上一篇:

高顏值的 DeepSeek 開源客戶端Lobe Chat

下一篇:

用了3小時(shí)從0訓(xùn)練小GPT!
#你可能也喜歡這些API文章!

我們有何不同?

API服務(wù)商零注冊

多API并行試用

數(shù)據(jù)驅(qū)動(dòng)選型,提升決策效率

查看全部API→
??

熱門場景實(shí)測,選對API

#AI文本生成大模型API

對比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力

25個(gè)渠道
一鍵對比試用API 限時(shí)免費(fèi)

#AI深度推理大模型API

對比大模型API的邏輯推理準(zhǔn)確性、分析深度、可視化建議合理性

10個(gè)渠道
一鍵對比試用API 限時(shí)免費(fèi)