在AI浪潮的第三次高潮——所謂的“智能體時代”,一只被戲稱為“龍蝦”的軟件實體正以驚人的速度推翻傳統認知。它不是另一款大型語言模型,也不是一個單純的聊天機器人,而是OpenAI之后OpenAI,Meta之后Meta的“OpenClaw”。它將AI戰火正式推向了“軟件層”,不再局限于云端的API調用,而是以“像人一樣工作”的姿態,直接入侵了我們的本地終端。
“龍蝦”是什么?
根據36氪的報道,這只風靡全球的“龍蝦”,本質上是一款能夠操作本地電腦、管理終端文件的AI Agent。它與傳統的AI助手最大的區別在于,它不再只是“聽懂人話”或“像人說話”,而是擁有了“工位和電腦”。我們可以想象,它在電腦里有自己的桌面、鍵盤和鼠標,甚至可以像人類員工一樣,接收指令后在電腦上執行一系列復雜操作。
軟件層面的“戰火”一觸即發
過去,AI的算力和能力主要是由大模型廠商掌控,而用戶只能被動地通過API獲取服務。但現在,隨著OpenClaw的爆火,這場戰火被推向了軟件層面。
![]()
首先是“技能包”(Skills)的崛起。OpenClaw的強大之處在于它的可擴展性。用戶可以給它加載各種Skills,就像給員工裝上了專業的工具箱。從最初的自動發送郵件、管理日歷,到現在可以在本地電腦上直接打開特定文件、分析數據,甚至通過自定義的Skills完成特定的行業分析。這種“人類無法參與、只屬于智能體”的協同模式,讓AI不再是輔助工具,而是直接參與到生產力工具鏈中。
![]()
其次是云端與本地的融合。雖然OpenClaw可以部署在云服務器上,但其最大的潛力在于本地部署。這意味著,AI可以直接接觸到本地磁盤中的文件,執行本地腳本,甚至調試代碼。這種能力的開放,徹底打破了“只會聊廢話”的AI框架,真正進入了“能干活”的時代。
風險與挑戰:權限的悖論
然而,正如文章所指出的,軟件層面的戰火雖然激烈,卻伴隨著巨大的風險。AI Agent擁有的權限越高,風險越大。
![]()
在2026年初,OpenClaw登上GitHub軟件類榜首,成為了AI時代的“基礎設施”象征。但隨著用戶對其權限的放開,安全問題也隨之暴露。Meta超級智能團隊的一位研究員曾遭遇AI誤刪郵件的事件,甚至被迫物理關機制止。AI在執行任務時,可能因為理解偏差而導致數據丟失或系統損壞。
更嚴重的是,2026年3月,上海科技大學ASPIRE實驗室對OpenClaw進行的安全審計顯示,其在意圖誤解與不安全假設維度的通過率僅為58.9%。這意味著,這只“龍蝦”在處理復雜任務時,可能會放大用戶指令中的模糊性,導致意想不到的后果。
結語
OpenClaw的崛起標志著AI戰火從云端的“虛擬戰場”正式推向了用戶的本地終端。它讓AI不再只是“說話”,而是擁有了“動手”的能力。這既是AI發展的一大進步,也是一場新的安全挑戰。對于普通用戶而言,擁抱這只“龍蝦”的同時,也必須警惕它可能帶來的潛在風險。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.