![]()
機(jī)器之心發(fā)布
最近,具身智能圈被 Generalist CEO 的一篇長(zhǎng)文《Going Beyond World Models & VLAs》刷屏。文章拋出了一個(gè)看似振聾發(fā)聵的觀點(diǎn):目標(biāo)遠(yuǎn)比工具標(biāo)簽更重要。與其陷入 “我們到底是在做 VLA(視覺(jué) - 語(yǔ)言 - 動(dòng)作模型)還是世界模型(World Model)” 的教條之爭(zhēng),不如回歸本源:讓機(jī)器高效、準(zhǔn)確地作用于物理世界。
目標(biāo)固然重要,但這只說(shuō)對(duì)了一半。喊出 “回歸目標(biāo)” 的口號(hào)很容易,但如果僅僅停留在 “目標(biāo)驅(qū)動(dòng)” 的思維層面上,而沒(méi)有在底層架構(gòu)上做出與之匹配的決斷與取舍,那所謂的 “突破邊界” 也不過(guò)是空中樓閣。Generalist 試圖用 “完全掌控基礎(chǔ)模型、從零訓(xùn)練” 來(lái)解決一切問(wèn)題,這是一種大力出奇跡的粗暴解法。但在算力與數(shù)據(jù)均受限的真實(shí)物理世界里,我們需要的不僅是宏大的目標(biāo),更是極具穿透力的架構(gòu)設(shè)計(jì)。
巧合的是,在這場(chǎng)關(guān)于 “目標(biāo)驅(qū)動(dòng)(Goal-Driven)” 與 “理念驅(qū)動(dòng)(Idea-Driven)” 的探討中,國(guó)內(nèi)最早布局世界模型的公司極佳視界,他們沒(méi)有停留在概念的爭(zhēng)辯上,而是直接切中物理世界的約束,提出并開(kāi)源了 “以動(dòng)作為中心的世界模型” GigaWorld-Policy。這不僅僅是一次架構(gòu)的微調(diào),而是對(duì)具身智能底層邏輯的重構(gòu)。
![]()
- 項(xiàng)目主頁(yè):https://gigaai-research.github.io/GigaWorld-Policy/
目標(biāo)的本質(zhì)
從 “理解世界” 到 “作用于世界”
在探討 GigaWorld-Policy 之前,我們必須先理清當(dāng)前世界模型在機(jī)器人領(lǐng)域的尷尬處境。過(guò)去一年,讓機(jī)器人 “先想象,再行動(dòng)” 幾乎成了世界模型標(biāo)配思路:模型在推理時(shí)同步生成未來(lái)的視頻幀,再?gòu)倪@些高維視覺(jué)表征中提取或規(guī)劃動(dòng)作。
這種做法在直覺(jué)上很美妙,但在工程實(shí)踐中卻暴露出了兩個(gè)致命缺陷:
- 目標(biāo)錯(cuò)位:視頻生成是手段,而高頻、精準(zhǔn)的動(dòng)作輸出才是目的。將手段當(dāng)成目標(biāo),不可避免地會(huì)導(dǎo)致模型架構(gòu)的臃腫和計(jì)算資源的錯(cuò)配。
- 現(xiàn)實(shí)約束:渲染高維像素的計(jì)算開(kāi)銷極大,不僅帶來(lái)了難以忍受的推理延遲,視頻預(yù)測(cè)的誤差還會(huì)沿著時(shí)間步傳遞給動(dòng)作序列,最終導(dǎo)致物理交互的崩潰。
極佳視界的判斷是:如果一個(gè)設(shè)計(jì)在推理時(shí)必須做大量與最終目標(biāo)無(wú)關(guān)的計(jì)算,那它一定不是最優(yōu)解。真正的具身智能,需要的不是一個(gè)能在腦海中完美回放 4K 視頻的 “幻想家”,而是一個(gè)對(duì)物理規(guī)律擁有 “潛意識(shí)” 般直覺(jué)反應(yīng)的 “實(shí)干家”。
就像頂尖的乒乓球運(yùn)動(dòng)員,在擊球的瞬間絕不需要在腦海中渲染出球的完整運(yùn)動(dòng)軌跡,而是依靠肌肉記憶和物理直覺(jué)直接做出最優(yōu)動(dòng)作。
GigaWorld-Policy
讓視頻生成從 “場(chǎng)上選手” 轉(zhuǎn)為 “幕后教練”
基于對(duì) “目標(biāo)” 和 “現(xiàn)實(shí)約束” 的重新思考,GigaWorld-Policy 在架構(gòu)層面做出了一個(gè)極具顛覆性的改變:讓視頻生成在推理時(shí)變?yōu)榭蛇x項(xiàng)。
![]()
在這個(gè)架構(gòu)中,視頻生成模塊的角色發(fā)生了根本性的轉(zhuǎn)變:
- 訓(xùn)練時(shí)的 “嚴(yán)師”: 模型在訓(xùn)練階段同時(shí)接受 “動(dòng)作預(yù)測(cè)” 和 “視頻生成” 的雙重監(jiān)督。海量的互聯(lián)網(wǎng)視頻數(shù)據(jù)在這里發(fā)揮了巨大的價(jià)值,視頻生成作為一個(gè)嚴(yán)苛的輔助任務(wù),強(qiáng)迫模型深入學(xué)習(xí)并內(nèi)化符合真實(shí)物理規(guī)律的動(dòng)態(tài)表征(Dynamics Representation)。
- 推理時(shí)的 “Action-Only” 模式: 一旦部署到物理世界,視頻生成模塊便徹底退居幕后。模型可以一鍵切換至純動(dòng)作輸出模式,直接下發(fā)高頻控制指令。
這種設(shè)計(jì)甩掉了渲染高維像素的算力包袱。理解物理規(guī)律,不再等同于必須渲染出物理畫(huà)面。只有當(dāng)架構(gòu)本身與目標(biāo)實(shí)現(xiàn)完全對(duì)齊時(shí),“目標(biāo)驅(qū)動(dòng)” 才不再是一句空話。
數(shù)據(jù)效率
在現(xiàn)實(shí)約束下尋找最優(yōu)解
Generalist 在文章中提到,面對(duì)機(jī)器人領(lǐng)域數(shù)據(jù)稀缺的問(wèn)題,他們的選擇是 “從零訓(xùn)練”,并堅(jiān)信當(dāng)數(shù)據(jù)足夠充足時(shí),完全掌控基礎(chǔ)模型能更快突破邊界。這是一個(gè)典型的 “富人思維” 陷阱,也違背了機(jī)器學(xué)習(xí)的基本規(guī)律。在產(chǎn)業(yè)落地的現(xiàn)實(shí)中,“缺乏 web-scale 的機(jī)器人動(dòng)作數(shù)據(jù)” 是一道繞不過(guò)去的坎。指望靠海量真機(jī)數(shù)據(jù)硬生生喂出一個(gè) “從零訓(xùn)練” 的基礎(chǔ)模型,在經(jīng)濟(jì)性和時(shí)間成本上都是不可接受的。
要真正解決數(shù)據(jù)效率問(wèn)題,必須回歸第一性原理。OpenAI 提出的 Transfer Scaling Law(遷移縮放定律) 為我們指明了方向:它揭示了預(yù)訓(xùn)練模型在目標(biāo)任務(wù)上的性能,并不只取決于模型大小,更取決于預(yù)訓(xùn)練數(shù)據(jù)(源域)與目標(biāo)任務(wù)數(shù)據(jù)(目標(biāo)域)之間的分布對(duì)齊程度。簡(jiǎn)而言之,你喂給模型再多的通用數(shù)據(jù),如果它的表征結(jié)構(gòu)不適合直接輸出 “動(dòng)作”,這種知識(shí)遷移的損耗將是極其驚人的。
極佳視界的解法,正是對(duì) Transfer Scaling Law 的一次教科書(shū)級(jí)別的工程實(shí)踐。因?yàn)?GigaWorld-Policy 從底層架構(gòu)上就確立了 “以動(dòng)作為中心”,這使得模型在預(yù)訓(xùn)練階段提取的物理表征,天然地與最終的 “動(dòng)作輸出” 任務(wù)高度對(duì)齊。這就大大降低了知識(shí)遷移的損耗(Transfer Penalty)。
在第一性原理的指導(dǎo)下,GigaWorld-Policy 跑通了 “三段式高效訓(xùn)練 Pipeline”:
- 建立物理常識(shí)(源域預(yù)訓(xùn)練):利用海量互聯(lián)網(wǎng)視頻,讓基座模型學(xué)習(xí)廣泛的通用物理常識(shí)和視覺(jué)表征。
- 聚焦時(shí)空演變(跨域適配):引入涵蓋第一人稱視角、真實(shí)機(jī)器人操作及仿真環(huán)境的多源視頻,專攻具身場(chǎng)景下的時(shí)空動(dòng)態(tài)演變,拉近源域與目標(biāo)域的分布距離。
- 精準(zhǔn)對(duì)齊(目標(biāo)域微調(diào)):僅需少量的帶標(biāo)簽真機(jī)動(dòng)作數(shù)據(jù),即可完成最終的控制策略對(duì)齊。
![]()
實(shí)驗(yàn)數(shù)據(jù)極具說(shuō)服力:GigaWorld-Policy 僅用 10% 的真實(shí)機(jī)器人數(shù)據(jù),就能達(dá)到傳統(tǒng) VLA 方案使用 100% 數(shù)據(jù)的效果。 這種分層范式,相比傳統(tǒng) VLA 實(shí)現(xiàn)了高達(dá) 10 倍的訓(xùn)練效率提升。
推理延遲
物理世界的硬約束
在物理世界中,時(shí)間就是生命。毫秒級(jí)的延遲差異,往往就是 “穩(wěn)穩(wěn)抓住” 與 “打翻水杯” 的區(qū)別。“慢吞吞” 的端到端大模型,在真實(shí)的物理交互中毫無(wú)用武之地。
- 拋棄了視頻生成的包袱后,GigaWorld-Policy 在推理效率上迎來(lái)了質(zhì)的飛躍。在 A100 GPU 上,其推理速度達(dá)到了驚人的360 毫秒 / 步。相比之下,相較 Motus,GigaWorld-Policy 實(shí)現(xiàn)了更少的推理顯存占用以及 10 倍推理速度提升。
- 更關(guān)鍵的是,這種速度的提升直接轉(zhuǎn)化為了控制性能的躍升。在真實(shí)世界的任務(wù)評(píng)測(cè)中,GigaWorld-Policy 的平均成功率達(dá)到了 83%,不僅比 Motus 快 9 倍,成功率更是高出 7 個(gè)百分點(diǎn)。
![]()
開(kāi)源精神與產(chǎn)業(yè)的未來(lái)
與其在概念的迷宮中打轉(zhuǎn),或是空談 “目標(biāo)驅(qū)動(dòng)”,不如用代碼和落地效果說(shuō)話。就在前段時(shí)間,極佳視界宣布 GigaWorld-Policy 全面開(kāi)源:
- 項(xiàng)目主頁(yè):https://gigaai-research.github.io/GigaWorld-Policy/
- 代碼:https://github.com/open-gigaai/giga-world-policy
- 論文:https://arxiv.org/pdf/2603.17240
在此之前,他們的 GigaWorld-1 不僅在世界模型權(quán)威基準(zhǔn) WorldArena 中登頂全球第一(綜合得分突破 60 分,超越谷歌、英偉達(dá)、阿里等國(guó)際頂尖團(tuán)隊(duì)),其開(kāi)源代碼和數(shù)據(jù)集在 Huggingface 上的下載量也已突破 2.4 萬(wàn)次:
- 代碼:https://github.com/open-gigaai/CVPR-2026-Workshop-WM-Track
- 數(shù)據(jù):https://huggingface.co/datasets/open-gigaai/CVPR-2026-WorldModel-Track-Dataset
無(wú)論是 Generalist 的深思,還是極佳視界的破局,都在向整個(gè)行業(yè)傳遞一個(gè)明確的信號(hào):具身智能已經(jīng)走過(guò)了 “概念驗(yàn)證” 的階段。未來(lái)的主戰(zhàn)場(chǎng),屬于那些真正理解物理約束、敢于在架構(gòu)上斷舍離的實(shí)干者。而 “以動(dòng)作為中心” 的世界模型,或許是通往物理 AGI 之路上,一座極具里程碑意義的進(jìn)步。
世界模型無(wú)疑是 2026 年至今整個(gè)科技圈最熱議題之一。它正推動(dòng) AI 從“感知當(dāng)下”,走向?qū)r(shí)空和動(dòng)態(tài)變化的“預(yù)測(cè)與推演”。在這條充滿想象力卻又極具挑戰(zhàn)的賽道上,技術(shù)突破與實(shí)踐應(yīng)用走到了哪一步?
4 月 15 日 19:00-21:00,機(jī)器之心將聯(lián)手黃大年茶思屋,邀請(qǐng) 5 位產(chǎn)學(xué)研頂尖專家,從技術(shù)突破到產(chǎn)業(yè)實(shí)踐,深度解析世界模型的最前沿。
歡迎關(guān)注機(jī)器之心視頻號(hào)預(yù)約直播
*如有疑問(wèn),歡迎添加小助手微信,搜索:jiqizhixinsh
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.