DeepSeek V4發(fā)布一再延期,從春節(jié)推遲至4月,引發(fā)社區(qū)“狼來了”的質(zhì)疑。在OpenAI與Anthropic“月更”的攻勢下,DeepSeek的“慢”究竟是掉隊(duì)還是蓄力,將成為決定其能否守住國產(chǎn)AI護(hù)城河的關(guān)鍵一役。
———— / BEGIN / ————
3月12日,據(jù)白鯨實(shí)驗(yàn)室獨(dú)家爆料:DeepSeek V4將于4月正式上線。
消息剛出,AI圈瞬間炸鍋——“終于要來了?”“這次不會(huì)又是畫餅吧?”。
之所以會(huì)出現(xiàn)這種又興奮、又懷疑的復(fù)雜反應(yīng),是因?yàn)檫^去幾個(gè)月,DeepSeek的發(fā)布時(shí)間表已經(jīng)被反復(fù)“預(yù)告”了太多次。
1月說春節(jié)前后,2月說中旬,3月又傳本周上線,一次次把開發(fā)者吊到嗓子眼。
然而,隨著一次次希望落空,DeepSeek被網(wǎng)友無情戲稱為“賈躍亭下周回國”式發(fā)布:
永遠(yuǎn)快來了,但總差最后一步。
回想2025年12月1日DeepSeek V3.2發(fā)布的那一天,是中國AI史上最燃的一刻!
開源社區(qū)直接沸騰,全球開發(fā)者歡呼,中國力量第一次在數(shù)學(xué)、代碼基準(zhǔn)上硬剛閉源巨頭,被譽(yù)為“中國版OpenAI o1升級(jí)版”。
可如今,距離V3.2已經(jīng)整整3個(gè)月過去,V4卻仍舊“只聞樓梯響”。
反觀OpenAI幾乎月更一次,Anthropic更是密集連發(fā)Claude 4系列,把“agent閉環(huán)”玩得風(fēng)生水起
DeepSeek到底怎么了?為什么曾經(jīng)的“火箭式迭代”突然剎車?
DeepSeek變慢了
2025年是DeepSeek的“高光之年”。
V3系列、R1推理模型、V3.2-Exp(稀疏注意力)、V3.2正式版,平均1-2個(gè)月一次大更新。
數(shù)學(xué)/代碼基準(zhǔn)多次局部超越閉源,API價(jià)格直接屠榜,開源權(quán)重放出后甚至引發(fā)美股波動(dòng)。
開發(fā)者們瘋狂刷屏:“DeepSeek才是真正的王者!”“中國AI,終于把不可能變成了現(xiàn)實(shí)!”
App上線短短幾個(gè)月,累計(jì)下載量就突破1.1億次,周活躍用戶最高逼近9700萬!開發(fā)者心智被徹底搶占。
那個(gè)階段的DeepSeek,就像一臺(tái)永不停歇的迭代機(jī)器,讓整個(gè)行業(yè)都感受到中國開源玩家的速度。
然而V3.2之后,DeepSeek的動(dòng)態(tài)只剩小修小補(bǔ):上下文擴(kuò)至1M、API微調(diào)等,無新權(quán)重、無重大功能躍升。GitHub和Hugging Face新repo停滯,API changelog最后一條仍停在2025.12.1。
社區(qū)早已不耐煩。
DeepSeek V4的發(fā)布時(shí)間點(diǎn),從1月春節(jié)前后,到2月中旬,到3月初,再到如今的4月窗口,開發(fā)者已經(jīng)被反復(fù)吊胃口太多次了。
然而,同期OpenAI和Anthropic卻進(jìn)入了“月更模式”。
OpenAI:2025年4月o3/o4-mini、6月o3-pro,2026年進(jìn)入GPT-5系列(5.3 Codex、5.4 Thinking),幾乎每月都有模型+產(chǎn)品+接口同步更新。
Anthropic:2025年5月Claude 4首發(fā),后續(xù)4.5/4.6密集落地,2026年2月Opus 4.6 + Sonnet 4.6幾乎同步推出,1M上下文、Agent長任務(wù)強(qiáng)化,從聊天機(jī)器人轉(zhuǎn)向了自主Agent。
![]()
DeepSeek vs 對(duì)手發(fā)布頻率時(shí)間軸圖(2025.9-2026.3)
對(duì)比一目了然:
2025月12月-2026年3月,OpenAI迭代4次,Anthropic 2次以上,DeepSeek大版本0次。
曾經(jīng)那個(gè)靠“火箭迭代”一路狂飆的DeepSeek,為什么突然變慢了?
DeepSeek放緩背后
DeepSeek動(dòng)作變慢,背后至少有三個(gè)原因。
從“模型發(fā)布”走向“系統(tǒng)工程”,難度陡增。
過去發(fā)布基礎(chǔ)模型,重點(diǎn)是參數(shù)、訓(xùn)練和benchmark。現(xiàn)在V4若要成為agent時(shí)代主力,必須解決的是模型“能不能連續(xù)干活”。
DeepSeek V3.2已明確把重心轉(zhuǎn)向tool-use和agent訓(xùn)練數(shù)據(jù)。官方提到其引入了覆蓋1800+真實(shí)環(huán)境、8.5萬+復(fù)雜指令的agent訓(xùn)練數(shù)據(jù)合成方法。
這標(biāo)志著DeepSeek已進(jìn)入更重的階段:不是訓(xùn)練一個(gè)更聰明的模型,而是訓(xùn)練一個(gè)真正可執(zhí)行的系統(tǒng)。
這與團(tuán)隊(duì)近幾個(gè)月研究脈絡(luò)完全一致:
梁文鋒2026年1月署名論文《Conditional Memory via Scalable Lookup》提出條件記憶機(jī)制,2025年12月《mHC: Manifold-Constrained Hyper-Connections》則優(yōu)化Transformer記憶與長上下文瓶頸。
隨著訓(xùn)練/驗(yàn)證復(fù)雜度指數(shù)級(jí)上升,模型迭代周期自然拉長。
DeepSeek的包袱變重了:開源明星的每一步都更難走。
作為全球開發(fā)者眼中的“開源之光”,DeepSeek沒有犯錯(cuò)的空間。
與OpenAI、Anthropic不同,DeepSeek背負(fù)整個(gè)開源社區(qū)的巨大預(yù)期,任何一次平庸的迭代都會(huì)被視為“走下神壇”。
一旦不夠強(qiáng),口碑反噬更猛;一旦太激進(jìn),推理成本和部署門檻會(huì)勸退開發(fā)者;一旦權(quán)重、推理框架、工具鏈配套不到位,生態(tài)迅速失望。
這讓DeepSeek必須確保每一次出手都是殺招。
在開源生態(tài)中,維持“代際領(lǐng)先”的壓力遠(yuǎn)比閉源巨頭更高,因?yàn)槟憬怀龅氖堑着疲鴮?duì)手看的是你的底牌在出牌。
如今DeepSeek仍舊是業(yè)界的“效率標(biāo)桿”,市場預(yù)期是“用1/10成本達(dá)到GPT同等性能”。如果V4僅微增性能卻抬高推理成本,DeepSeek的神話可能就會(huì)破滅。
所以,頻繁小修小補(bǔ)對(duì)DeepSeek未必劃算,一個(gè)沒有明顯代際差的V4,反而不如不發(fā)。
資源與組織的天花板,可能正在顯現(xiàn)。
2026年的大模型戰(zhàn)爭已變成持續(xù)工業(yè)化比拼,拼的是算力持續(xù)供給、數(shù)據(jù)與后訓(xùn)練流水線、評(píng)測體系、工程團(tuán)隊(duì)規(guī)模、產(chǎn)品-用戶-收入-再訓(xùn)練閉環(huán)。
OpenAI和Anthropic能月更,正因?yàn)樗鼈円呀?jīng)形成強(qiáng)大閉環(huán)。
比如,Anthropic把Claude 4重點(diǎn)放在coding、長任務(wù)、agent工作流和一整套API能力;而OpenAI則是模型、產(chǎn)品和API接口同步推。
DeepSeek要面對(duì)的,不再是下一次能不能刷榜,而是能不能跟上工業(yè)化迭代速度。
更具戰(zhàn)略意義的挑戰(zhàn),在于硬件生態(tài)的重構(gòu)。
據(jù)爆料,DeepSeek V4將深度適配國產(chǎn)芯片,并有望成為首個(gè)完全跑在國產(chǎn)算力生態(tài)上的大模型 。
在外部技術(shù)封鎖與內(nèi)部算力自主的雙重壓力下,這種從底層架構(gòu)到國產(chǎn)硬件的“飽和式適配”,必然會(huì)拉長研發(fā)周期。
這不僅是技術(shù)的博弈,更是資源與工程能力的極限測試 。
為何對(duì)手越來越快?
與DeepSeek的克制不同,美國巨頭們正處在一種近乎瘋狂的“月更模式”。
Anthropic尤其明顯,近一年產(chǎn)品路線高度聚焦:coding、agent、企業(yè)工作流。
2025年5月Claude 4發(fā)布時(shí),就直接把“長時(shí)間復(fù)雜任務(wù)”和“agent workflows”作為核心賣點(diǎn),同時(shí)配套各種開發(fā)者能力。
Anthropic把有限的資源、高密度砸向最容易形成壁壘的方向,因此更新節(jié)奏更清晰、落地更快。
OpenAI更像是另一種快法。
它形成了一種平臺(tái)化推進(jìn)節(jié)奏:模型層小步快跑、產(chǎn)品層持續(xù)上新、API層不斷增強(qiáng),用戶體感始終在更新。
雖然兩家的打法不同,但結(jié)果卻一樣。它們都在持續(xù)給開發(fā)者新東西,給企業(yè)新能力,給市場確定感。
而DeepSeek的問題,恰恰在于這幾個(gè)月給外界的信號(hào)太少。開發(fā)者一開始會(huì)等,再后來就會(huì)把注意力轉(zhuǎn)向已經(jīng)能上手的模型上。
短期看,DeepSeek和頭部模型廠商的差距確實(shí)拉大了。
但值得注意的是,在基準(zhǔn)層面,DeepSeek V3.2在數(shù)學(xué)/代碼仍具競爭力;而V4傳出來的方向,也足夠有殺傷力。
爆料顯示,梁文鋒過去半年在補(bǔ)視覺內(nèi)容處理和AI搜索短板,V4將押注多模態(tài)、長期記憶、代碼能力躍升,還要深度適配國產(chǎn)芯片。
3月11日OpenRouter上出現(xiàn)的Alpha模型,也讓開發(fā)者提前聞到了“多模態(tài)+長agent”的味道。
如果V4真的把多模態(tài)、長期記憶、代碼能力和國產(chǎn)芯片適配幾件事一起兌現(xiàn),那么DeepSeek長期仍可一戰(zhàn)。
4月發(fā)布窗口已經(jīng)越來越近。
DeepSeek的“慢”,到底是掉速,還是蓄力,我們拭目以待。
本文來自公眾號(hào):世界模型工廠作者:世界模型工廠
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.