
全網都在要Manus AI邀請碼,可能是 DeepSeek 后最大驚喜
電腦沒有大顯存GPU的朋友,推薦安裝1.5b尺寸,這版尺寸普通電腦無GPU的都能流暢運行,延時幾乎在1-2秒,更為關鍵的是,DeepSeek-r1之所以爆出圈有一個重要原因,小尺寸模型回答質量也很高,即便1.5b如此小的參數尺寸亦如此。
簡單再介紹下DeepSeek-R1。它回復問題主要包括兩部分:思考(Thinking)和 Answer(正式回答),在每次正式回答前,會有一個很長的思考鏈。之前的大模型在小尺寸參數(如1.5b)回復Token有些簡短,質量一般,但是這次DeepSeek-r1:1.5b解決了回復Token數過短,效果不好的難題:
以上就是為什么這樣選型和搭建的原因,接下來介紹逐步詳細搭建步驟。
搭建步驟之前寫過一篇,當時有個關鍵步驟拉下了,再加上r1又剛出來,所以我再重新梳理一遍,這次盡量做到步驟足夠細致,盡量讓完全未接觸編程的朋友也可復現。
第一步,安裝Pycharm社區版,完全免費,下載地址在我的公眾號后臺回復:Pycharm,即可獲取。下載后基本都是下一步,在此不再贅述。
第二步,下載ollama并安裝deepseek-r1:1.5b,在我的公眾號后臺回復ollama,獲取ollama軟件,下載安裝后打開軟件,輸入ollama list可以看到我現在安裝了三個本地大模型,其中包括r1:1.5b,剛安裝ollama現在執行這條命令應該是空的:
接下來執行一條命令:ollama pull deepseek-r1:1.5b,就能直接下載它到自己的電腦,如下所示,
下載完就安裝好了,比較方便。
接下來就可以愉快的接入到PyCharm 了。
第三步,DeepSeek-r1:1.5b接入到PyCharm。首先下載插件:CodeGPT,打開第一步安裝的PyCharm,找到文件(File)-設置(Settings)-插件(Plugins),輸入CodeGPT,即可點擊安裝(Install)即可:
安裝后在工具(Tools)下會出現CodeGPT,點擊Providers,找到Ollama(Local),對應下圖數字2,再到3這里選擇剛剛安裝的deepseek-r1:1.5b,點擊OK就可以了:
下面就可以愉快的在PyCharm中使用DeepSeek-r1加速編程學習了,左側是代碼編輯界面,右側是r1大模型,直接對話式提問,省去了來回不同頁面折騰的麻煩:
大家再感受DeepSeek-r1:1.5b大模型的回復延時,幾乎1秒鐘響應,本人電腦是pro-m1,這響應速度可以了。再看看回答效果,因為公眾號文章的GIF幀數有限制,我只截取了前6幀,無任何加速,全部是延時播放速度,展示下效果:
CodeGPT插件顯示了Tokens數,有些朋友擔心這是不是在計費?不是的!只是一個數字統計,無任何費用,因為使用的是本地自己電腦的算力。
另外,CodeGPT應該是目前大模型+編程UI做的最好的插件了,感興趣的朋友可以根據此篇文章以上三個步驟安裝試試。
本地運行大模型:免費、便捷、適合個人知識管理與編程學習。
選型推薦:deepseek-r1:1.5b + PyCharm社區版 + CodeGPT插件。
在 PyCharm 右側直接對話 DeepSeek-R1,快速輔助編程。
幾乎 1-2秒響應,完全本地快速運行,無額外費用。
文章轉載自:DeepSeek接入Python,一般電腦也能飛速跑,確實可以封神了!