![]()
新智元報(bào)道
編輯:編輯部
【新智元導(dǎo)讀】OpenClaw爆火,AI正式步入Agent時(shí)代。一支低調(diào)的中國團(tuán)隊(duì)?wèi){借極速推理、完美適配128G內(nèi)存的196B模型,直擊痛點(diǎn),強(qiáng)勢登頂海外熱榜。
2026年才剛剛開始,AI圈的風(fēng)向就已經(jīng)變了。
全網(wǎng)最火OpenClaw一夜之間,將大模型從乏味的「對話框」,拉到了「自動執(zhí)行中樞」的時(shí)代。
![]()
![]()
OpenClaw GitHub星標(biāo)狂飆200k
放眼海外,OpenClaw開源生態(tài)迎來了史詩級大爆發(fā)。核心Skill注冊平臺ClawHub成為全球開發(fā)者的進(jìn)貨天堂。
![]()
這里匯集了超過5000個(gè)由社區(qū)貢獻(xiàn)的海量Agent Skills
就在最近,國內(nèi)一款類似的平臺「水產(chǎn)市場」迅速走紅。
上線短短幾天時(shí)間,已有3.3k下載量,開發(fā)者們紛紛一鍵接入了自己的龍蝦。
它的核心邏輯,就把各種散落GitHub工具,全部集中上架,讓Agent隨調(diào)隨用。
![]()
傳送門:https://openclawmp.cc/
當(dāng)AI被卷成「超級牛馬」,開發(fā)者的投票邏輯也變得更加直接:
在復(fù)雜的長程任務(wù)中,誰的速度奇快無比、邏輯足夠強(qiáng)悍,且能與各類工具絲滑地聯(lián)動,誰就能贏下這一局。
正是在這樣一個(gè)「實(shí)戰(zhàn)為王」的節(jié)點(diǎn),一個(gè)低調(diào)的中國大模型團(tuán)隊(duì)——
階躍星辰(StepFun),憑借著最新發(fā)布的Step 3.5 Flash,穩(wěn)穩(wěn)接住了這波最炙手可熱的流量紅利。
全球「逮蝦戶」
爭用中國黑馬模型
由于OpenClaw運(yùn)行需要大量調(diào)用大模型API,OpenRouter作為全球最大的模型聚合平臺,自然成了最直接的「戰(zhàn)場」。
在GPT等強(qiáng)敵包圍之下,Step 3.5 Flash異軍突起,不僅成功躋身Fastest榜的第一梯隊(duì),甚至還一度拿下了Trending榜的榜首。
一個(gè)代表速度,一個(gè)代表趨勢,精準(zhǔn)命中了Agent時(shí)代開發(fā)者最關(guān)心的兩個(gè)維度:快,以及越來越多人在用。
![]()
![]()
根據(jù)「Last 30 days」調(diào)用量排行,Step 3.5 Flash目前穩(wěn)居全球第四;2月26日以來,單天調(diào)用量則直接沖到了第三的位置。
![]()
不過,更值得玩味的是,這份成績是怎么來的。
階躍CTO朱亦博后來在Reddit上透露:
Step 3.5 Flash既不在OpenClaw默認(rèn)配置的首頁推薦列表里,也沒有跟OpenClaw做過任何官方推廣合作。
換句話說,這完全是開發(fā)者自發(fā)選擇的結(jié)果——用腳投票,一票一個(gè)token。
潛入Reddit
海外開發(fā)者「真香」現(xiàn)場
隨著調(diào)用量的飆升,階躍的核心團(tuán)隊(duì)做客了全球最硬核、最挑剔的本地大模型開源社區(qū)Reddit的 r/LocalLLaMA 板塊,開啟了一場長達(dá)數(shù)小時(shí)的AMA(Ask Me Anything)。
![]()
熟悉這個(gè)社區(qū)的人都知道,r/LocalLLaMA的活躍用戶是全球最硬核的獨(dú)立開發(fā)者。
他們不看PPT,不信營銷話術(shù),只看模型能不能在自己的本地機(jī)器上絲滑跑起來。
面對這群最挑剔的極客,StepFun派出了包括CEO、CTO、首席科學(xué)家在內(nèi)的全明星陣容,十一人集體在線答疑。
面對海外極客尖銳的技術(shù)提問、乃至對工程Bug的「貼臉開大」,階躍交出了一場真誠且硬核的答卷。
而把這場跨洋對話和近期的榜單逆襲放在一起看,不僅能解開Step 3.5 Flash在海外意外走紅的底層邏輯,更能讓我們看到:
在算力與生態(tài)的重重約束下,一家中國創(chuàng)業(yè)公司是如何蹚出一條破局之路的。
![]()
先說速度。
在Chatbot時(shí)代,大模型只要保持20~30 tokens/s的輸出速度就夠了,因?yàn)橛脩魰⒅聊豢此复蜃帧梗倏煲沧x不過來。
但在Agent時(shí)代,游戲的玩法徹底變了。
當(dāng)用戶使用OpenClaw這類工具完成長程任務(wù)時(shí),沒有人會緊盯模型輸出的每一個(gè)字——大家只關(guān)心「你什么時(shí)候能把活干完交付給我」。速度,從「錦上添花」變成了「生死攸關(guān)」。
海外用戶的真實(shí)反饋印證了這一點(diǎn)。
在AMA中,有網(wǎng)友直言:「實(shí)測用于OpenClaw特別好用,速度奇快無比,是所有模型里最滿意的一個(gè)」。
![]()
再說尺寸。
如果說速度是熱情的引線,那么點(diǎn)燃這場AMA最高潮的,是一個(gè)看似平淡的參數(shù)設(shè)定:約196B的MoE架構(gòu)。
在開發(fā)者眼中,這個(gè)尺寸簡直是「神來之筆」。
知名評論者ilintar激動地留言:「我覺得196B MoE是一個(gè)完美的參數(shù)規(guī)模——它允許高質(zhì)量的4-bit量化加上合理的上下文長度剛好能放入128 GB內(nèi)存中。」
![]()
這個(gè)「卡點(diǎn)」并非巧合。朱亦博在AMA中坦言:
我們的確有一個(gè)目標(biāo),就是讓它能夠跑在一個(gè)128 GB內(nèi)存系統(tǒng)的內(nèi)存中。我自己為了跑模型,自掏腰包買了一臺128GB內(nèi)存的Macbook Pro,而我們的首席科學(xué)家也買了一臺128GB內(nèi)存的AMD機(jī)器。
因?yàn)樽约菏琴Y深的本地模型玩家,所以深知痛點(diǎn)。
現(xiàn)有的許多230B級別的模型,在進(jìn)行4-bit量化后,恰好超出了128GB內(nèi)存的承載極限,迫使開發(fā)者只能犧牲性能去使用3-bit甚至更低精度的量化,或者忍受極慢的硬盤卸載。
![]()
為了讓開發(fā)者能夠用4-bit暢快跑滿256K上下文,階躍硬生生將尺寸「克制」在了比235B略小的區(qū)間。
這不僅是技術(shù)上的精打細(xì)算,更是對開源社區(qū)真實(shí)需求的深刻共情。
難怪有用戶感慨:「你們能考慮到128GB的范圍真是太棒了」。
![]()
當(dāng)然,反饋并不只有鮮花。
有開發(fā)者尖銳地指出,Step 3.5 Flash在發(fā)布首日,工具調(diào)用在vLLM、llama.cpp等主流推理?xiàng)I贤耆豢捎茫踔林苯臃艞墱y試退回了競品模型。
![]()
面對這種「貼臉輸出」的質(zhì)疑,CTO朱亦博親自下場道歉:
這確實(shí)暴露出我們在發(fā)布支持工具調(diào)用的模型方面經(jīng)驗(yàn)不足……我們只確保了數(shù)學(xué)和編碼的基準(zhǔn)測試結(jié)果,但測試用例沒有覆蓋到工具調(diào)用的工程實(shí)現(xiàn)。
![]()
針對用戶反饋的模型會陷入「無限推理循環(huán)」的Bug,團(tuán)隊(duì)也毫不回避。
他們詳細(xì)解釋了這是因?yàn)槿狈Σ煌评韽?qiáng)度(Reasoning effort)的訓(xùn)練數(shù)據(jù),并公開了下一步通過RL進(jìn)行顯式長度控制的修復(fù)方案。
甚至,在談到「世界知識的遺忘」這一深度技術(shù)難題時(shí),團(tuán)隊(duì)也大方分享了他們的困境與假設(shè):
對于200B規(guī)模的推理模型,在從預(yù)訓(xùn)練轉(zhuǎn)向推理模式冷啟動的對齊階段,模型很容易陷入一個(gè)「知識貧乏的閉合子空間」,付出了過高的「對齊稅」,導(dǎo)致世界知識受損。
![]()
這種不回避缺陷、甚至把踩過的坑掰開揉碎了講給社區(qū)聽的態(tài)度,贏得了極客們的極大尊重。
開源社區(qū)最終只相信一件事情:你是不是在真正解決問題,你是否與開發(fā)者站在一起。
有用戶甚至主動提出:「如果我能在下個(gè)版本前搞定自動解析器,你們至少不用擔(dān)心llama.cpp的工具調(diào)用支持了」。
![]()
這,就是開源的力量。
196B參數(shù)背后的設(shè)計(jì)哲學(xué)
從CTO朱亦博最近發(fā)布多的一篇長文中,我們洞察到了階躍在大模型路線上的戰(zhàn)略判斷邏輯。
![]()
第一個(gè)判斷:大模型時(shí)代正在切換賽道。
當(dāng)前,大模型的演進(jìn)劃分為三個(gè)階段:L1 Chatbot(對話機(jī)器人)→ L2 Reasoner(推理器)→ L3 Agent(智能體)。
針對不同階段,適合的「基座架構(gòu)」也是不同的。
也就是說,強(qiáng)行用上一代的基模結(jié)構(gòu)做下一代的事,不是不行,只是效率極低。
而對于沒有海外巨頭那樣充沛算力的中國公司而言,低效就是致命的。
第二個(gè)判斷:Agent時(shí)代,速度比參數(shù)更重要。
比起狂卷參數(shù),一個(gè)擁有極致效率的模型更加重要。
這意味著,模型的推理速度,從「體驗(yàn)優(yōu)化項(xiàng)」變成了「核心競爭力」。
因此,Step 3.5 Flash的設(shè)計(jì)目標(biāo)被精準(zhǔn)地定義為三個(gè)詞:強(qiáng)邏輯、長上下文、快。
在架構(gòu)方面,它采用了高效的稀疏MoE,并選擇了對投機(jī)采樣最友好的SWA結(jié)構(gòu);在端側(cè)部署方面,團(tuán)隊(duì)堅(jiān)持用8個(gè)Group,以適配8卡并行的推理硬件。
這種從一開始就將「智能密度」和「推理速度」作為雙重北極星指標(biāo)的做法,讓Step 3.5 Flash在沒有盲目堆砌參數(shù)的情況下,成為了一臺完美契合Agent工作流的「性能小鋼炮」。
第三個(gè)判斷:拒絕梭哈,可持續(xù)發(fā)展才是正道。
這場AMA和背后的開發(fā)故事中,最讓人深思的,其實(shí)是階躍星辰對「大參數(shù)模型」的祛魅。
在階躍看來,訓(xùn)大尺寸模型很容易陷入一個(gè)死胡同:
訓(xùn)練周期太長,等好不容易訓(xùn)成熟了,上一個(gè)智能時(shí)代已經(jīng)進(jìn)入尾聲,新的范式(如長鏈條推理)已經(jīng)出現(xiàn),為了適應(yīng)新時(shí)代又不得不推倒重來。
這需要巨頭般深不見底的算力儲備,對于創(chuàng)業(yè)公司而言,「就是場要么爆火要么爆虧的豪賭」。
更深入的技術(shù)洞察在于:模型尺寸到了一定程度后,和邏輯能力的相關(guān)度就不大了,邏輯能力主要吃后訓(xùn)練技術(shù)。
在巨頭中間
蹚出一條「實(shí)戰(zhàn)派」之路
縱觀整個(gè)2026年開春的大模型戰(zhàn)局,市場正在發(fā)生劇烈的重構(gòu)。
前兩年的邏輯是誰能跑分更高,誰能更接近所謂的SOTA。
但在今天,這條坐標(biāo)軸正在轉(zhuǎn)向:誰能在算力約束下跑出現(xiàn)金流?誰能在模型能力與推理成本之間找到極致的平衡?
Step 3.5 Flash的出現(xiàn),以及它在Reddit引發(fā)的狂熱和在OpenClaw榜單上的逆襲,給出了一個(gè)極具啟發(fā)性的答案。
算力不占優(yōu)勢,就把系統(tǒng)和算法的聯(lián)合設(shè)計(jì)做到極致;
做不了通殺一切的萬億全能怪獸,就針對Agent時(shí)代的核心痛點(diǎn)(長上下文效率、極速推理、強(qiáng)邏輯后訓(xùn)練)進(jìn)行定點(diǎn)爆破;
在商業(yè)化上,通過提供「最符合硬件部署甜點(diǎn)位(128GB)」的高效工具,自然而然地接住了OpenClaw帶來的開發(fā)者流量。
正如團(tuán)隊(duì)在AMA中所說:「訓(xùn)練基礎(chǔ)模型既是科學(xué)也是工程。最重要的是每個(gè)團(tuán)隊(duì)成員都理解設(shè)計(jì)目標(biāo)。當(dāng)目標(biāo)清晰時(shí),算法選擇、數(shù)據(jù)清洗和基礎(chǔ)設(shè)施決策就會自然對齊。」
這或許才是2026年AI競爭最真實(shí)的樣子——不是實(shí)驗(yàn)室里的跑分游戲,而是真實(shí)工作流中的生死時(shí)速。
當(dāng)你的模型每天被全球開發(fā)者調(diào)用數(shù)百億tokens時(shí),任何花哨的PPT都不如一句「it just works」來得有說服力。
至少在此刻,階躍星辰的Step 3.5 Flash已經(jīng)用一種最樸素的方式證明了自己的價(jià)值:
在一個(gè)老外用英語提問、中國工程師用英語回答的深夜Reddit帖子里,在一個(gè)個(gè)被全球開發(fā)者敲進(jìn)配置文件的模型名字里。
不需要翻譯,代碼就是最好的語言。
參考資料:HYX
https://www.reddit.com/r/LocalLLaMA/comments/1r8snay/ama_with_stepfun_ai_ask_us_anything/
https://zhuanlan.zhihu.com/p/2001741987360023159?share_code=K2EZrJg5W6ih&utm_psn=2010030633179709936
https://openrouter.ai/apps?url=https%3A%2F%2Fopenclaw.ai%2F
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.