聽雨 發(fā)自 凹非寺量子位 | 公眾號 QbitAI
嚯,硅谷居然被中國開源模型占領(lǐng)了!
連Yann LeCun也點(diǎn)贊:說得對!
![]()
初代AI編程炸子雞Cursor和Devin,都被曝出號稱自研的模型,其實(shí)套殼的就是中國開源模型。
![]()
上個(gè)月,Cursor承認(rèn)了旗下的Composer 2套殼Kimi K2.5。
當(dāng)初首個(gè)推出“AI自動工程師”Devin的公司Cognition,其自研模型SWE-1.6,則疑似在GLM模型上進(jìn)行后訓(xùn)練。
其實(shí)不止這兩家,類似的例子越來越多,中國開源模型在硅谷的受歡迎程度與日俱增——
Shopify因切換至Qwen,每年節(jié)省500萬美元;愛彼迎聯(lián)創(chuàng)Brian Chesky也曾表示:Qwen又好又快又便宜,比GPT還好用!
而且智譜最新發(fā)布的GLM-5.1,是部分指標(biāo)超Opus 4.6的開源模型,估計(jì)性價(jià)比放在硅谷也相當(dāng)有競爭力了。
國產(chǎn)開源模型橫掃硅谷
國外模型選擇蒸餾中國開源模型,或是在此基礎(chǔ)上進(jìn)行后訓(xùn)練,這事兒已經(jīng)不少見了。
上個(gè)月,Cursor的自研模型Composer 2在基準(zhǔn)測試上反超了Opus 4.6,價(jià)格還腳踝斬。
![]()
結(jié)果沒得意兩天就被曝出其實(shí)套殼Kimi K2.5。
雖然事情以雙方握手言和告一段落,但讓人唏噓不已。
Cursor啊Cursor,你好歹是初代AI編程當(dāng)紅炸子雞,這事兒干得也不太地道了!
![]()
除此之外,另一位炸子雞Cognition,其自研模型SWE-1.6也被曝疑似在GLM模型上進(jìn)行后訓(xùn)練。
而且這家伙是個(gè)老慣犯了,從前代SWE-1.5就開始偷梁換柱。
![]()
去年,SWE-1.5就被曝是在GLM-4.6上進(jìn)行后訓(xùn)練得到的。
當(dāng)時(shí)的梗圖傳得滿天飛:
![]()
Cursor和Cognition最早集成的都是Claude和GPT的能力,但現(xiàn)在已經(jīng)紛紛轉(zhuǎn)投中國開源模型的懷抱。
Cognition的開發(fā)者Shawn Wang還曾直言:
- 只要基礎(chǔ)模型足夠好,它的具體特性就越來越不重要了,因?yàn)閺?qiáng)化學(xué)習(xí)和后訓(xùn)練才是關(guān)鍵所在,也是區(qū)分彼此的關(guān)鍵所在。
不過嘛,初創(chuàng)獨(dú)角獸不成建制,出現(xiàn)套殼還拒不承認(rèn),大家就當(dāng)個(gè)笑話看。
但連巨頭也這么干,或許背后還存在更深層次的原因。
去年12月,Meta的“牛油果”項(xiàng)目曾被曝出使用Qwen開源模型做了蒸餾訓(xùn)練。
![]()
在此之前,Meta旗下的Llama模型曾長期主導(dǎo)開源領(lǐng)域,其衍生模型數(shù)量和下載量均保持領(lǐng)先地位。
扎克伯格還曾經(jīng)公開呼吁,要構(gòu)建以美國模型為核心的開源生態(tài)。
但現(xiàn)在,面對自身Llama系列增長乏力與東方模型的強(qiáng)勢崛起,Meta已經(jīng)做出了選擇。
經(jīng)過9個(gè)月的奮戰(zhàn),Meta的最新模型Muse Spark已經(jīng)交卷,不過也是妥妥的閉源了。
此外,愛彼迎的聯(lián)創(chuàng)兼CEO Brian Chesky,早就被Qwen的實(shí)力圈粉了。
他曾經(jīng)公開表態(tài):
- 我們很大程度上依賴阿里巴巴的Qwen模型。它非常好,速度也很快,而且很便宜。
我們也會用OpenAI的最新模型,但在實(shí)際生產(chǎn)中通常不會大量使用,因?yàn)橛懈臁⒏?jīng)濟(jì)的模型可供選擇。
![]()
小八卦,Brian Chesky和奧特曼還是摯友。不過涉及自家應(yīng)用產(chǎn)品整合時(shí),必須得“親兄弟,明算賬”…
Brian直言不諱,表示OpenAI提供的連接工具還“沒有完全準(zhǔn)備好”。
愛彼迎的選擇,只是中國大模型技術(shù)實(shí)力的一個(gè)縮影。
在學(xué)術(shù)界,斯坦福大學(xué)李飛飛團(tuán)隊(duì)、艾倫人工智能研究所等頂尖機(jī)構(gòu)在研究中也采用了基于Qwen的技術(shù)方案。
去年年初,李飛飛團(tuán)隊(duì)曾基于Qwen2.5-32B構(gòu)建了一個(gè)頂級推理模型s1-32B,成本不到50美元。
該模型的數(shù)學(xué)和編碼能力,與OpenAI的o1和DeepSeek的R1等尖端推理模型不相上下。
艾倫人工智能研究所也基于Qwen2-72B,構(gòu)建了其多模態(tài)系統(tǒng)。
還有Mira Murati創(chuàng)辦的獨(dú)角獸Thinking Machines Lab,也把Qwen作為默認(rèn)的微調(diào)選項(xiàng)。
中國開源模型在硅谷的走紅,可見一斑。
![]()
性價(jià)比壓倒一切
為啥硅谷這么熱衷于中國開源模型?
當(dāng)然是因?yàn)?strong>量大便宜
Peter Yang算了一筆賬:在許多基準(zhǔn)測試中,中美同等質(zhì)量的模型價(jià)格相差10-20倍
就拿最新發(fā)布的幾款國產(chǎn)模型來說:
- Kimi K2.5:每百萬token輸入4元/輸出21元;
- MiniMax M2.7:每百萬token輸入2.1元/輸出8.4元;
- GLM-5.1:每百萬token輸入6元/輸出24元;
- Qwen3.6-Plus:每百萬token輸入2元/輸出12元。
![]()
![]()
這幾款模型在基準(zhǔn)測試上的表現(xiàn),都接近甚至部分反超了Opus 4.6、GPT-5.4等頂尖閉源模型。
但Opus 4.6的價(jià)格是每百萬token輸入5美元/輸出25美元,GPT-5.4則是輸入2.5美元/輸出15美元。
這性價(jià)比,一目了然。
節(jié)省超10倍價(jià)格,拿到一個(gè)還不錯(cuò)的模型表現(xiàn),豈不是美滋滋??
![]()
而且開源模型也并非完全打不過閉源。
早在Kimi還只出了K2的時(shí)候,Vercel CEO Guillermo Rauch就曾提到:
在內(nèi)部智能體真實(shí)場景基準(zhǔn)測試中,Kimi K2在運(yùn)行速度和準(zhǔn)確率上優(yōu)于GPT-5和Claude Sonnet 4.5。
其中準(zhǔn)確率更是高出50%。
硅谷投資人Chamath也曾表示,Kimi K2性能夠強(qiáng),且比OpenAI和Anthropic便宜太多。
而且自從艾倫人工智能研究所宣布削減開源模型研發(fā)資金,轉(zhuǎn)向AI應(yīng)用后,美國開源AI的旗幟就真倒了。
![]()
開源模型,已經(jīng)來到了中國時(shí)間。
[1]https://x.com/petergyang/status/2042248752157839793?s=20
[2]The All-You-Can-Use AI Subscription Won’t Last Forever
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.