![]()
OpenClaw有沒有顛覆打工人的工作方式不知道,但具身智能好像快要被顛覆了。
最近,最近網上流傳許多這樣的視頻,一些不滿足“賽博養蝦”的網友,給OpenClaw接上攝像頭和機械臂。這一接不要緊,接入之后大家發現,原來OpenClaw不僅能在電腦上干活,在現實中同樣也是干活的一把好手。
比如有網友給OpenClaw配上了電腦,機械臂和攝像頭,他們沒有為這個任務重新寫一套程序,也沒有單獨訓練模型,只是對OpenClaw說:“把這些汽車零件分類。”
OpenClaw就完成了這些零件分揀。
![]()
這件事情對具身智能的沖擊有多大呢?
這么說吧,就在不到一年前,這些能力在人形機器人公司都還是值得專門召開一場發布會,花費上百萬美元在全世界進行吆喝的。
但現在,同樣的能力,卻被OpenClaw輕易實現了,甚至它都不是為具身智能專門準備的工具。
所以這件事情,怎么聽都有些荒誕。
那么,OpenClaw到底給人形機器人帶來了什么?在OpenClaw這么強的情況下,專門的具身大模型還有意義嗎?機器人公司之前的工作有沒有白費?為什么機器人公司辛苦好幾年的工作,OpenClaw能輕易做到?
以及潮水退去之后,又有誰在裸泳?
當“養蝦”養到機器人身上
我仍然記得,大概是去年(2025年)4月初,國內一家頭部的人形機器人公司在北京鄭重地舉辦了一場發布會,內容就是人形機器人開發平臺。
當時,這個平臺的核心亮點就是:僅憑語音指令,就能在工業場景中完成散亂零件的分揀,動作流暢、錯誤率低。
怎么樣,這個描述是不是很熟悉,它和今天OpenClaw能做到的事情幾乎一模一樣。
區別只是在于,這家公司發布的這個平臺是專門針對機器人的,它拆分了數十個場景,訓練Agent,然后通過行為路徑規劃串聯在一起,這里面包含了大量的工作。
當時,這個公司給這個平臺的宣傳口號是:人形機器人從表演走向干活、從實驗室走進工廠最重要的一塊拼圖。而現在,OpenClaw似乎也輕易實現了類似的能力,但顯然,OpenClaw沒有經歷過這些。
這就像什么呢?就像你和朋友一起去爬山,你精心準備、提前出發,花費大量時間,終于氣喘吁吁地來到山頂時,你卻發現,你的朋友坐著直升機,已經在這里等你多時了。
具體來看,OpenClaw還在更多的場景中都展現出了強大的泛化能力、決策和自我進化的能力。
比如在一個實驗里,還有一段更生活化的測試。工作人員對機械臂說:“今天是元宵節,給我做點甜米酒湯圓。”
機械臂先停頓思考任務,隨后開始執行:把湯倒進鍋里,把湯圓放進去,等待水煮開。
中途工作人員還問:“能不能加點糖?”
機械臂反問:“黃糖還是桂花糖?”
得到“黃糖”的回答后,他把糖倒進了鍋里。
此外還有各種各樣的實驗,比如有開發者把OpenClaw接入工業機械臂,讓它根據自然語言指令完成抓取或搬運任務,系統甚至會自動生成控制機械臂的Python腳本。
除了機械臂,四足機器人也很快出現在各種“養蝦”實驗里。
在Reddit和X上流傳的一些視頻中,有開發者把OpenClaw接入機器狗,讓它在環境中自主巡邏。
過去,這類機器人通常需要遙控操作,或者按照提前設計好的路線行動。但在這些實驗中,沒有操控,也沒有提前規劃的路線,機器狗根據攝像頭看到的環境,自己判斷、自己規劃,比如繞開障礙物、或者在遇到新情況時重新規劃路徑。
![]()
而當這些實驗開始出現在人形機器人身上時,事情就變得更有意思了。
比如在一個開源社區中,就有人發布了一套適用于OpenClaw的Unitree-robot技能。有了這個集成,開發者可以直接通過即時通訊軟件控制宇樹機器人,比如G1,甚至包括更大的H1,以及四足機器人GO1和GO2。
整個過程比想象中簡單得多。開發者不需要打開復雜的圖形界面,也不用手動調用SDK,只要在聊天窗口里發一句話:
“前進一米。”
“左轉45度。”
機器人就會執行對應的動作。
這種控制甚至是雙向的。OpenClaw可以從機器人搭載的立體相機中獲取環境圖像,再把截圖直接發回聊天窗口,讓開發者隨時查看現場。如果再接入路徑規劃模塊,系統還可以自動規劃路線、避開障礙物。
![]()
同樣,整個過程沒有預設腳本,也沒有提前規劃好的動作路徑。
開發者只是給出一個目標,剩下的事情就都交給了AI,它自己判斷、自己規劃。
一只小龍蝦,能掀翻人形機器人嗎?
我們從各種的演示視頻中,看到了OpenClaw結合其他大模型表現出來的驚人能力。
放以前,足以成為許多人形機器人公司最驕傲的成果,放到現在也變得平平無奇。
因此,這不得不讓人產生一個疑問:機器人行業花了這么多年,采集數據、訓練模型、開發系統才實現的能力,還有價值嗎?
答案當然是否定的。
這話得從頭說起,一個機器人,除了本體之外,決策系統大致可以被拆為四層,從上往下分別是:
- 決策層(大腦):理解目標與任務拆解;
- 感知/表征層:識別環境、目標與空間狀態;
- 行為組織層:把任務拆成技能和動作序列;
- 控制層(小腦):軌跡、伺服、避障、安全執行。
![]()
在這個框架下,OpenClaw 主要負責前面幾層能力的調用、編排和銜接。至于機器人最后怎么動、動作能不能穩定落地,仍然依賴底層控制系統、運動學求解和執行鏈路。
因此,OpenClaw 并不是讓機器人突然學會了運動,它反而更像是一個上層調度系統,把人的指令翻譯成一連串可調用的能力。
這里真正值得注意的亮點其實有兩個。
第一個,是OpenClaw改變了機器人獲得這些能力的方式。
過去,很多能力并不是做不到,而是往往要為單一任務投入大量數據采集、專門訓練和復雜的規則工程。
而現在,OpenClaw可以直接借助已經成熟的多模態模型、工具系統和模塊化執行鏈路,把許多原本需要單獨開發、單獨訓練的能力,變成了可以直接調用,和快速組合的能力。
結果就是,同樣一個抓取、查找或巡檢任務,開發效率更高,試錯周期更短,整體成本也更低。
第二就是,OpenClaw讓機器人開始具備一種過去很少真正建立起來的能力:對現實世界的持續記憶。
傳統機器人更多是在“當下”工作。它看到什么,就對什么做出反應;任務結束后,對環境的理解也大多停留在那一刻。很多系統當然也能做地圖、定位和任務狀態保存,但它們通常并不會把“地點、物體、事件和時間”持續組織成一個可隨時調用的統一記憶結構。
而現在,OpenClaw開始嘗試把機器人感知到的重要對象、地點、事件和時間組織成可檢索的時空語義記憶。
這意味著,機器人不再只是執行命令,而是在持續積累上下文。
一個人什么時候進入房間,一個物體被放在了哪里,一段行為發生在什么時間點,這些都可能被納入后續搜索、判斷和行動的依據。
當然,這并不等于它已經擁有了像人一樣完整的世界理解,但至少說明,它開始具備一種面向現實世界的結構化記憶能力。
這件事的意義在于,機器人能力的邊界正在從“完成一次任務”往“持續理解一個環境”延伸。(在同一環境或相似環境中,持續上下文會提升任務連續性和局部穩定性,但這并不等于系統已經獲得了廣義泛化能力。)
當然,OpenClaw能做到這些,并不是憑空產生的,其背后支持的有兩個重要的原因。
第一個原因是,最近幾年機器人本身的底層架構開始發生了變化。
過去,很多機器人系統更像一個個封閉的煙囪:感知是一套,規劃是一套,控制又是一套,彼此連接復雜,開發門檻很高。很多能力雖然已經存在,但很難被靈活調用。
而現在,機器人系統正在變得越來越模塊化、標準化。相機、機械臂、抓取模塊、路徑規劃、底層控制接口,都在逐步變成可插拔、可組合的能力單元。
OpenClaw之所以看起來很強,不是因為它憑空創造了底層機器人能力,而是因為它可以站在一個已經逐漸標準化的執行棧之上,把這些能力重新組織起來。
第二個原因,是多模態大模型正在快速整合原來分散的能力。
過去,人形機器人如果要完成一個任務,往往要單獨解決很多問題:文字理解、語音識別、圖像識別、視頻理解、目標檢測、空間判斷、任務拆解,常常要靠不同模塊分別完成。
但現在,多模態大模型已經能同時處理文字、圖像、語音、視頻等不同信息,并把這些信息放進同一個上下文里統一理解。這意味著,機器人過去那些需要單獨訓練、單獨接入的感知和理解能力,正在被更通用的基礎模型逐步吸收。
這導致機器人上層智能的開發門檻被明顯拉低了。而這就是OpenClaw的意義,它不是重新發明這些能力,而是把這些已經變強的通用能力,更高效地接進了機器人系統。
具身大模型,還有沒有意義?
說到這里,就自然會延伸出一個更關鍵的問題:既然基礎模型已經越來越強,單獨做一個具身智能大模型,還有意義嗎?
畢竟在此之前,很多人形機器人公司都曾高調宣布自研具身大模型,并把它視為公司最重要的戰略核心,仿佛誰掌握了具身模型,誰就掌握了機器人的未來。
可現在看起來,通用基礎模型正在迅速補齊理解、感知和任務編排能力,原來機器人公司花了很多年構建的部分上層能力,正在被更大的基礎模型體系快速通用化。
答案是:有,而且依然重要。
原因在于,基礎模型變強,主要改變的是機器人“理解世界”的能力;而具身模型真正決定的,是機器人“如何在物理世界里把動作做出來”的能力。
理解一句話、識別一個目標、拆解一個任務,這些事情確實越來越像通用能力了。但機器人最難的部分,從來不只是聽懂、看懂,而是進入現實世界以后,動作是否真的成立,抓取角度對不對,軌跡穩不穩,接觸力會不會失控,目標被遮擋后能不能繼續,抓取失敗后能不能恢復,換一個場景、換一個物體、換一臺機器之后還能不能成功。
這些問題不是只靠更強的“理解能力”就能自動解決的。
具身智能大模型的價值,不在于把所有事情都包下來,而在于把大量和動作、操作、交互相關的經驗沉淀下來,讓機器人不僅能做出一個demo,更能形成穩定、可復用、可泛化的能力。
換句話說,通用模型正在吃掉的是“理解層”;而具身模型守住的,仍然是“動作層”和“物理落地層”。
所以,具身模型不是沒有意義了,而是它的角色正在變化:過去它像是想包辦一切的“全棧大腦”,現在它更像是在整個機器人系統里,負責決定能力上限的關鍵一層。
最后,讓我們回到最開始的問題,OpenClaw到底給人形機器人行業帶來了什么?
答案是,它讓整個行業更早接受了一個事實:人形機器人的上層任務智能,正在快速通用化。
過去,很多公司最稀缺的能力,是把理解、感知、規劃和調用整合成一個能工作的系統;但現在,隨著多模態基礎模型和Agent框架成熟,這部分門檻正在迅速下降。
做一個像樣的demo,會越來越容易,這也意味著,機器人行業正在進入深水區。
未來比拼的,不再是誰先做出一個會“聽懂指令”的演示,而是誰能把動作做穩,把成功率做高,把系統做成低延遲、可復現、可量產、可安全部署的產品。真正決定勝負的,將是更底層的專業能力:控制、數據、魯棒性、工程化和量產能力。
換句話說,OpenClaw降低了做demo的門檻,卻沒有降低做成產品的難度。
而這恰恰是它對行業最大的沖擊:那些還浮在表面、靠手搓demo講故事的公司,其競爭力會迅速被擠壓;潮水退去之后,才知道誰在裸泳。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.