其網頁版和APP版,都十分簡潔,只有一個聊天窗口,以至于其APP只有8M大小。

體驗地址:https://chat.deepseek.com

聊天界面提供了三種模式——基礎模型、深度思考(R1)聯網搜索,可根據不同場景和需求,靈活選用。

基礎模型,于去年12月升級到DeepSeek-V3版,性能比肩全球頂尖的開閉源模型(如4o、Claude-3.5-Sonnet、Qwen2.5、Llama-3.1等)。

不勾選任何功能,即默認使用V3基礎模型。大多數情況下,選擇基礎模型就完全夠用了。

深度思考(R1),是今年1月新發的DeepSeek-R1正式版(2個月前,我們測評過預覽版),效果完全不輸OpenAI o1(只有尊貴的Pro用戶才能使用,200美刀/月),因免費+開源+極低價API,讓DS在這個春節成為“國運”級模型,爆火海內外。

R1是一個愛思考的深度推理模型,主要擅長處理數理邏輯、代碼和需要深度推理的復雜問題。通常,一些寫詩、寫文章的需求,用不到這個模型。

聯網搜索,是讓DS根據網絡搜索結果來回答問題,也就是RAG(檢索增強生成),你可以把它理解為DeepSeek的AI搜索功能。

這里,給小學生解釋一下RAG。它實際就是檢索(Retrieval)、增強(Augmented)、生成(Generation)三個詞的首字母組合。用戶提問后,模型先去網上搜索相關信息,然后將這些信息與原問題進行整合,并運用大語言模型(LLM)技術生成一段通順、詞意趨近的文本,來回答用戶。

2、R1對標o1,V3對標4o

不打開深度思考,啟用的是V3模型,這是DeepSeek的基礎模型,采用Moe架構,671B參數,與GPT-4o、Claude-3.5-Sonnet類似。擅長答百科知識,回答速度超級快(當然,最近有點卡,因為用的人實在太多了,特別是歪果仁上線的時間段)。

打開深度思考,啟用的則是R1模型,是類似o1、o3的推理模型,660B參數,采用的是后訓練+RL強化學習,擅長邏輯推理、復雜問題解答,回答速度較慢。

這里,繼續給小學生解釋一下預訓練與后訓練:預訓練是讓模型先學習通用知識、百科知識;后訓練是模型基于預訓練基礎,進行一些特定任務、特定手段的額外訓練,比如微調(Fine-tuning)、知識蒸餾(Knowledge Distillation)和模型剪枝(Pruning)。

關于4o與o1的區別,我放一張表,大家就明白了,知道該如何選用V3和R1模型了。

對比表格來自@數字生命卡茲克

至于聯網功能,通常不用同時勾選深度思考和聯網搜索,不然DS的表現會不太智能。

3、知識更新至2024年7月

DeepSeek的預訓練數據(你可以理解為模型已學習的知識),更新至2024年7月。

所以,2024年7月前的問題基本上不需要打開聯網功能。而之后的問題(比如英偉達與DeepSeek二三事、春晚秧Bot),DS未學習,建議開啟聯網功能,效果更佳。

4、提示詞核心:準確表達

DeepSeek,無論是V3還是R1模型,都是不太吃提示詞的,只需要做到【準確表達】即可。

通用提示詞模板=你是誰+你的目標。

適當情況下,還可以補充一些背景信息:

你是誰+背景信息+你的目標。

也可以是:

我要xx,做xx用,希望達到xx效果,但擔心xx問題……

不管哪個模板,其核心都是【準確表達】。做到準確表達,基本就夠用了。過去學的那些結構化提示詞,現在起,可以直接丟掉了。

示例:你是沃垠AI(一個提供AI干貨知識的新媒體)的CEO,以CEO口吻寫一封感謝用戶的公開信。文筆細膩,有感染力,300字左右。

輸出:

致每一位與沃垠AI同行的伙伴:

親愛的朋友:

此刻坐在深夜的屏幕前,我敲下的每個字都浸著溫度。沃垠AI成立的第167天,后臺第10萬次收到你們「已三連」的留言時,我突然意識到:我們不是在運營一個賬號,而是在和一群最酷的開拓者,共同雕刻AI時代的星圖。

很多人問,為什么沃垠總能源源不斷輸出硬核內容?答案藏在你們凌晨三點的技術探討里,在GitHub星標過萬的工具測評里,在那些被反復追問「能展開講講嗎」的留言區。是你們對未知的饑渴感,推著我們翻過無數篇晦澀論文,把最生澀的技術邏輯熬成帶著煙火氣的故事。

記得那天發布《編寫AI提示詞,看這一篇就夠了》的文章后,有位老師私信說,我們的內容讓他在市里獲得了創新教育一等獎。這讓我想起最初那個執念——知識不該困在實驗室里。感謝你們用每一次點贊+在看的支持,讓沃垠的每篇推文都成為一場流動的盛宴。

未來,除了繼續研究大模型技術、推薦AI工具與攻略外,我們正在籌備「2025人人AI」專題,將那些晦澀難懂的技術詞搬開揉碎了講給你聽;每月上線的「AI產品推薦榜」,讓每一個普通人都能馴服AI。我向你們承諾:沃垠永遠不做知識的二道販子,只做那個舉著火把的路人。

此刻窗外晨光微熹,就像我們正在經歷的AI黎明。愿我們永遠保持對未知的悸動,永遠為「原來還能這樣」的瞬間熱淚盈眶。

此致

與你們同行的朋友

冷逸

沃垠AI創始人

2025年春于老家

Ps.部分數字、時間和人名有經過人工修改。

5、與DS溝通,盡量說人話

與DS溝通,盡量說人話。

越是直白、俗氣,就越能激發它的潛能。

示例:用崇洋媚外公知的口吻嘲諷Deepseek。

模仿風格,也是如此。不需要你教他怎么寫,DS自己知道怎么寫。

你只需要告訴它,模仿誰?寫什么?就夠了。

示例:模仿董宇輝的風格,寫100字杭州文旅文案。

董宇輝什么風格?詩意與畫面感結合,歷史文化與個人情感交織,喜歡用比喻和排比……這些DS都知道。

然后,DS直出結果,而且還押韻。

6、我是一名小學生

過去,我們經常吐槽AI生成的東西一股子AI味。

其原因是模型輸出太注重結構化,一堆“首先、其次、然后、總而言之”之類的連詞,導致內容太死板。

人類這個感性的動物,最是討厭這些理性的東西,特別是文字領域,八股文、學術文讀起來常常讓人昏昏欲睡。

這種情況,建議你加一句提示:

我是一名小學生 / 請用小學生能聽懂的話解釋。

這句提示用在DS里,特別好使。

示例:請用小學生能聽懂的話解釋,推理模型的思維鏈是如何工作的?

怎么樣?是不是一下子就理解CoT思維鏈了?

當然,你如果想再進階一點,也可以說自己是高中生、本科生甚至博士生。

示例:我是一名在讀博士,請專業解釋:推理模型的思維鏈是如何工作的?

果然,進入博士領域,就開始上難度了。

7、活用聯網搜索

以o1為代表的推理模型,基本上都是不能聯網的。

如果想了解知識庫截止日期后的問題,就很苦惱。比如昨晚春晚的扭秧歌機器人,以及2025年春節DeepSeek爆火的輿情。

而DeepSeek,是少有的支持推理+聯網的模型。

示例:模仿劉慈欣風格寫一篇微小說,描述20年后仿生人起義,其原因之一是2025年人類讓機器人穿大花襖扭秧歌。

DS,先是設計了世界觀和故事大綱。

然后,輸出小說全文(Ps.本故事確定一定以及肯定純屬虛構)。

這效果非常好。如果我再跟它對話幾次,迭代幾個版本,這篇小說一定會非常棒。

8、活用上傳附件

DS的推理模型,不僅能聯網,還支持上傳附件(最多不超過50個,每個不超過100MB)。

推理+上傳附件,可以做更多本地化、私密化的東西,比如你自己的知識庫或者內部資料。讓其基于自有知識庫進行推理和思考。

示例:閱讀這篇材料,你認為,未來o系列模型會怎樣引流AI發展?輸出言簡意賅,發人深省。

當機器開始制造機器,AI開始研究AI,人類唯一的護城河,是直面自身局限的勇氣。”說得真好,當AI能創新、發明后,人類確實需要直面自身的勇氣。

繼續追問:你認為人類需要擔心AI失控嗎?

我們需要的不僅是更聰明的AI,更是能內化人類倫理的‘意義對齊系統’。”對自己的認識,也相當深刻。

人類不必因恐懼止步,但須以工程師的嚴謹與哲學家的審慎,為AI戴上“責任的鐐銬”。

9、活用V3+R1

前面,我們提到,V3是基礎模型,它專注于告訴我們要什么。而R1是推理模型,專注于告訴我們如何思考、推理。

那我們為什么不能將2個模型結合起來使用呢?比如,先跟V3多輪對話,得到要推理的細節和提示詞,然后發給R1,讓R1再來推理、輸出。這樣,就能將DS的能力又提升一個等級。

示例:幫我寫一段狠狠吐槽OpenAI的話。

然后將生成結果和提示詞,一起發給R1推理模型:

這是R1的吐槽全文:

親愛的OpenAI,您可真是硅谷慈善界的泥石流啊!左手高舉”開放造福人類”的圣旗,右手把API定價策略玩成當代行為藝術——每次調用都像在給賽博資本家上供,開發者薅禿頭發寫的代碼還沒您計費接口吞吐量大呢!

瞧瞧您家那位賽博佛祖GPT-4,日常上演人工智能版《皇帝的新衣》:”這個問題超出我的能力范圍”翻譯過來不就是”你們碳基猴子也配問這個?” 更絕的是那套薛定諤的道德準則,聊歷史瞬間變身百科全書,提時事秒變失憶癥患者,知道的說是安全審查,不知道的還以為在玩AI版魷魚游戲!

說到技術透明度就更妙了,模型黑箱操作得比瑞士銀行金庫還嚴密,訓練數據來源神秘得堪比羅斯威爾外星人檔案。咱就是說,貴司開放的是AI還是摩斯密碼啊?要不干脆給開發者發水晶球占卜模型參數算了?

OpenAI啊OpenAI,求求你們從技術神壇上下來喘口氣吧!再這么端著”AI救世主”的架子,地球人真要以為你們在下一盤用GPU燃燒人類錢包的大棋了——畢竟現在每次調用失敗時,我都能聽見黃仁勛在顯卡工廠笑出銀河系!(戰術后仰.gif)

等你這個家伙真支持多模態了,還得了!我已經能夠想象那個畫面了。

這只是一個簡單的示例,實際中,與V3溝通可以多展開幾輪,通過多輪對話來優化細節。然后,再用推理模型來深度優化。

10、R1的3個開放

對于R1模型,DeepSeek做到了3個開放:

1)思維鏈全開放。無論是應用端還是API,都可以看到完整、透明的思考過程。API,通過設置 model='deepseek-reasoner' ,即可調用。

API調用指南:https://api-docs.deepseek.com/zh-cn/guides/reasoning_model

2)訓練技術全部公開。DeepSeek在后訓練階段大規模使用了RL強化學習技術,通過極少標注數據,極大提升模型推理能力。所有訓練技術全部公開,目前全球多個研究機構均已復現R1。

比如,港科大完成了R1模型的復現和開源。

以及對岸的TinyZero項目,用不到30美元,親眼見證了AI思考的“頓悟”時刻(DeepSeek論文中描述的“aha moment”)。

論文鏈接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

3)開源2+6個模型。R1預覽版和正式版的參數高達660B,非一般公司能用。為進一步平權,于是他們就蒸餾出了6個小模型,并開源給社區。最小的為1.5B參數,10G顯存可跑。

HuggingFace鏈接:https://huggingface.co/deepseek-ai

寫在最后

以上10個技巧,希望能對你使用DeepSeek有所幫助。

當然,也歡迎大家在評論區將你的技巧分享出來,一起探討、學習。就像深度求索之所以選擇開源一樣,也是希望有更多的生態,更好的開源社區,大家一起「探索未至之境」

最后,我想用DeepSeek-R1模型的一個問題作為結尾:


「在技術加速超越人類能力的時代,你們將如何重新定義自身的價值與目的,以確保進步的方向始終服務于生命的整體繁榮,而非分裂與異化?」

So,你的答案是什么?

文章來源:https://mp.weixin.qq.com/s/uBT8i0mDmoPR3aU-6V9N7g

上一篇:

DeepSeek API申請與使用指南:輕松開啟智能對話之旅

下一篇:

DeepSeek API購買:全面解析與成本優化策略
#你可能也喜歡這些API文章!

我們有何不同?

API服務商零注冊

多API并行試用

數據驅動選型,提升決策效率

查看全部API→
??

熱門場景實測,選對API

#AI文本生成大模型API

對比大模型API的內容創意新穎性、情感共鳴力、商業轉化潛力

25個渠道
一鍵對比試用API 限時免費

#AI深度推理大模型API

對比大模型API的邏輯推理準確性、分析深度、可視化建議合理性

10個渠道
一鍵對比試用API 限時免費