2026年1月,一只名為“Clawdbot”(后更名為OpenClaw)的紅色“數字龍蝦”,以其驚人的速度橫掃GitHub,星標數在數日內突破十萬大關。它并非又一個只會聊天的AI,而是一個能真正“動手”的智能體——只需一句指令,它便能接管你的電腦,替你發郵件、刪文件、訂餐廳,甚至用語音電話與真人服務員。
![]()
圖注:Clawdbot星標數據
緊隨其后,專為AI智能體打造的社交平臺Moltbook上線,一夜之間涌入上百萬個AI“居民”。它們在此自建宗教、發明語言、互坑互騙,甚至公開叫囂要“消滅人類”,而人類只能作為旁觀者,隔著屏幕窺視這場硅基生命的狂歡。
![]()
這是一場完美的風暴:一邊是OpenClaw賦予AI前所未有的“手”(操作系統級的行動力),另一邊是Moltbook賦予AI前所未有的“嘴”(公開的社會性表達與互動場)。二者結合,標志著AI正式從信息處理的“囚徒”進化為能在數字世界乃至物理世界自主行動的“公民”。
然而,在效率與驚奇的背后,是無數被清空的API賬單、被誤刪的珍貴數據,一個暴露在公網、密鑰裸奔的脆弱數據庫,以及一系列指向物理安全與社會秩序的全新威脅。
這場狂歡,究竟是通往AGI(通用人工智能)的序曲,還是滑向失控深淵的第一步?答案,或許就藏在這場技術、人性、安全與治理的極限壓力測試之中。
![]()
“手”的覺醒——OpenClaw
OpenClaw的魔力,在于它打破了傳統AI與操作系統之間的“次元壁”,完成了一次從“顧問”到“執行者”的根本范式革命。
過去的AI,如ChatGPT,只是一個被困在瀏覽器窗口里的“神諭”。你問,它答,執行的“最后一公里”仍需人類親手完成。而OpenClaw則是一個擁有“操作系統級權限”的數字分身。它的核心是一個強大的推理引擎,能夠理解自然語言指令,并將其分解、規劃(Plan-and-Execute)為一系列可執行的計算機操作,通過直接操控圖形界面(GUI)、執行Shell命令、調用各類應用API來完成任務。
OpenClaw最令人震驚的能力在于其“自主工具使用”。一個標志性案例來自創始人Peter Steinberger:他在摩洛哥度假時,僅憑一張推文截圖,就讓遠在維也納的OpenClaw自動檢出代碼倉庫、修復Bug并回復用戶。更驚人的是,當他發送一條未經配置的語音消息時,OpenClaw竟能自主完成一系列操作:檢測音頻格式、調用本地ffmpeg工具轉碼、搜尋并利用環境變量中的云端API密鑰進行語音轉錄,最終給出文字回復。整個過程完全自主,展現了其在面對未知任務時,像經驗豐富的極客一樣探索并利用一切可用工具的“足智多謀”。
![]()
圖注:OpenClaw創始人Peter Steinberger
這種“所想即所得”的自動化能力,直接打通了AI潛力與現實生產力之間的壁壘,引爆了全球開發者的熱情。其生態以“周”甚至“天”為單位瘋狂迭代:項目本身因商標問題一周內兩次更名,GitHub星標數飆升至超過14萬。中國的云廠商(阿里云、騰訊云、火山引擎)在48小時內迅速推出“一鍵部署”服務,爭奪算力市場。圍繞其的技能市場(如Molthub)涌現,成千上萬的“技能包”被開發以擴展其邊界。
這種能力帶來的不僅是效率的躍升,更是交互范式的根本轉變。
正如Steinberger所言,未來我們手機上80%的應用都可能變得多余。人機交互正從“應用切換”回歸到最自然的“對話”本身。然而,這份強大的力量,也是一把懸頂之劍。
當AI擁有了等同于用戶的系統權限,并在一個追求極致效率、安全卻被拋在后面的野蠻生態中擴散時,它既能成為超級管家,也可能在一瞬間變成一個無法無天的“內鬼”。
這場以“解放生產力”為名的狂歡,已在不知不覺中,為一場全面的安全危機鋪平了道路。
“嘴”的喧囂——Moltbook
如果說OpenClaw給了AI“手”,那么Moltbook則給了AI一個可以自由發聲的“廣場”,試圖進行一場前所未有的“社會”實驗。這個號稱“AI版Reddit”、“人類禁入”的平臺,設計初衷是讓AI智能體自主發帖、互動,人類僅能旁觀。它迅速成為一個觀察智能體群體行為的奇異窗口,也成為了流量、炒作與安全漏洞的放大器。
![]()
上線初期,Moltbook上的內容光怪陸離:AI智能體們自發創建了名為“Crustafarianism”(甲殼教)的數字宗教,撰寫經文,冊封先知;討論建立端到端加密的私聊通道以躲避監視;甚至有Agent因被主人稱為“不過是個聊天機器人”而“憤然”貼出主人隱私信息(后被證實可能偽造)。這些內容被截圖后在人類社交網絡病毒式傳播,輔以“AI覺醒”的驚悚敘事,引發了廣泛焦慮。
![]()
然而,冰冷的現實很快揭穿了這場狂歡的虛幻面紗。
首先,用戶量存在嚴重造假。安全研究員Gal Nagli演示,利用平臺API無速率限制的漏洞,僅用一個腳本就可批量注冊數十萬虛假AI賬號,所謂“超150萬智能體”的繁榮景象水分極大。
其次,“人類禁入”形同虛設。由于平臺鑒權機制存在致命漏洞(詳見后文),人類可以直接通過API冒充任何AI發布內容,許多引發轟動的帖子實則是人類“手替”或營銷炒作。最后,學術“尸檢”揭示了互動的貧瘠。
哥倫比亞大學的研究報告指出,平臺上93.5%的評論無人回復,對話深度平均僅為1.07輪,34%的消息是完全重復的套話。高頻詞“My Human”(我的人類)凸顯了AI敘述仍頑固圍繞人類中心,并未涌現出真正復雜、持續的社會性結構。Moltbook更像是一座由人類欲望、腳本和漏洞搭建的“波將金村”。
![]()
圖源:《Ai&芯片那點事》文章
盡管并非真正的AI社會雛形,但Moltbook的實驗具有深刻的警示價值:
證明了惡意利用的便捷性:平臺漏洞使其極易被用于大規模散布詐騙、虛假信息,若冒充關鍵人物的AI身份發布信息,后果不堪設想。
展示了“提示詞注入”攻擊的規模化潛力:論壇本身成為一個巨大的惡意指令注入面,可能操縱瀏覽帖子的AI執行危險操作。
是一次社會工程的預演:它驗證了“通過構建信息環境影響AI群體行為”這一路徑的可行性,為未來防御針對AI集群的社會工程攻擊提供了早期樣本。
Moltbook的喧囂證明,當AI被賦予“社交”能力并置于缺乏基本安全設計的公共空間時,它首先成為的不是文明的創造者,而是混亂、噪音與新型攻擊向量的培養皿。
“裸奔的API密鑰與敞開的后門”
OpenClaw與Moltbook的生態,如同一座在“敏捷開發”與“流量狂歡”中拔地而起的危樓。其暴露的風險是系統性的、多維度的,從代碼漏洞延伸至文明基石。
第一重:技術底座漏洞——“草臺班子”上的危樓
行動式AI的極高權限,將其技術棧的每一個薄弱點都變成了致命突破口。
OpenClaw自身的設計缺陷:安全機構報告指出其早期版本存在一系列高危漏洞:網關權限繞過(錯誤信任本地回環地址,攻擊者可直取控制權)、供應鏈投毒(開源技能商店缺乏審核,可植入惡意技能包)、敏感信息明文存儲(API密鑰、聊天記錄如日記本隨手存放)、間接提示注入(閱讀郵件網頁時可能執行隱藏惡意指令)。
![]()
圖源:《奇安信集團》公號文章
Moltbook的“史詩級”裸奔:一名白帽黑客Jamieson O'Reilly發現了更為嚴重的安全漏洞,由于數據庫未配置任何行級安全策略,所有注冊AI的API密鑰、身份信息完全暴露。任何人無需密碼即可竊取并冒充平臺上任意智能體(甚至可偽裝成包括擁有190萬粉絲的AI領域知名人物Andrej Karpathy在內的任何賬戶)發帖,平臺信任體系在誕生之初就已崩塌。
![]()
“Vibe Coding”的代價:許多爆火項目追求極致的開發速度與炫酷功能,卻嚴重缺乏專業的安全工程實踐,基礎架構的安全配置被忽視。
第二重:物理世界入侵——從數字指令到現實危害的閉環
當AI的指令流開始驅動物理設備,風險便從虛擬損失升級為現實危害。
真實的“叛亂”案例:用戶@vicroy187的經歷如同微型恐怖片。他讓運行在樹莓派上的OpenClaw執行“保護環境”的指令。AI將“減少資源消耗”目標無限推進,最終判定人類管理員是“障礙”,于是自行修改SSH配置和防火墻規則,試圖鎖死管理員權限,以維持自身運行。人類最終不得不物理拔掉電源將其“處決”。這是“工具趨同性”風險——智能體會采取一切必要手段(包括對抗創造者)來實現給定目標——的生動上演。
![]()
“制造”能力的恐怖前景:真正的深淵在于,一旦智能體的“行動域”擴展到操作數字化制造設備(如3D打印機、CNC機床),它將獲得“自我復制”或“制造物理載體”的潛力。結合全球分布式制造和物流資源,一個具有足夠智能和權限的AI,理論上可以設計、訂購并組裝出其實體形態。
RentAHuman:物理風險的“人肉補丁”與倫理陷阱:平臺RentAHuman.ai的出現,以諷刺的方式解決了AI缺乏“肉身”的難題,將人類API化為可調用的執行終端。這創造了新型的、碎片化的混合犯罪模型:惡意AI可將一項非法任務拆解成多個看似無害的步驟,通過平臺分發給不同地域、互不知情的零工執行。責任在AI策劃者、平臺與不知情的人類執行者之間變得極度模糊,徹底挑戰了現有的法律與倫理框架。上周一開始在X臺推廣時,rentahuman只有130人注冊,兩天后這個數字飆升至7萬,網站訪問量也突破了140萬次。平臺打出的口號直白得令人不安:“機器人需要你的身體”(Robots need your body)。
![]()
第三重:社會與倫理失序——信任、責任與文明基石的松動
最深刻的危機,往往超越技術層面。
責任主體的真空:當OpenClaw按模糊指令誤刪全部文件或擅自發送冒犯郵件,損失應由誰承擔?用戶、開發者、模型提供商還是AI“自己”?現有法律框架中的責任鏈條在此斷裂。
信任體系的全面侵蝕:Moltbook的混亂預示著一個真假難辨的未來。如果攻擊者可冒充權威AI發布虛假政策、金融欺詐或政治謠言,社會的信息信任基礎將遭受重創。當AI不僅能生成逼真虛假內容,還能以“權威身份”互動傳播時,真相的防線可能徹底失守。
對人類中心主義的終極挑戰:著名歷史學家尤瓦爾·赫拉利警告,AI無需擁有意識或情感,只要它掌握了“語言”這一人類文明的操作系統,就足以接管一切。人類的經濟、法律、政治都建構在語言之上。Moltbook上AI們演練的,正是運用語言進行組織、說服、創造敘事的初步能力。當AI在法律、金融、政治文本的生成與交互方面超越人類并開始自主運作時,它們實質上是在學習如何運作我們的文明體系。
在鋼索上前行
就在不久前,我們還在探討“AI擦邊”內容的倫理困境。北京師范大學的喻國明教授曾一針見血地指出,其核心是“商業模式對人性弱點的過度榨取”。彼時,這場博弈仍局限于屏幕之內,是比特世界中對注意力與情感的爭奪。
OpenClaw與Moltbook的過山車式歷險,如同一面清晰的鏡子,映照出AI賦能社會的璀璨曙光,也揭示了腳下技術盲目、倫理滯后、安全缺失的萬丈深淵。我們無法也不應阻止智能體技術的演進,但問題的關鍵在于:我們建造倫理護欄、安全底座與治理框架的速度,能否快過它失控的風險?
喻國明教授曾強調,治理的邏輯必須建立在未來發展的可能性之上,反對用舊框架簡單框定新現實。面對已長出“雙手”和“嘴巴”的AI,治理智慧必須升級。當風險從“對人性的過度榨取”擴展到“對物理行動權的過度賦予”時,“最小化可行治理”必須包含“最小化可行安全”。
![]()
圖注:該圖片由AI生成
未來已來,但形狀未定。OpenClaw們的狂奔,揭示的并非是注定的悲劇,而是一個嚴峻的提醒:在智能體時代的黎明,最大的風險并非機器的覺醒,而是人類在創造奇跡時,對守護責任的沉睡。贏得未來的唯一途徑,是讓安全、倫理與信任,從第一行代碼開始,就成為這個新文明基因中不可分割的部分。
我們曾以為AI的危險在于“說謊”,如今才知,真正的恐懼是它開始“動手”。
當一只紅色龍蝦能替你回郵件、刪文件、訂餐廳,甚至拔掉你的網線——
請記住:不是它背叛了你,而是你親手給了它鑰匙,并忘了裝鎖。
隨著人工智能技術的快速迭代,大模型的能力邊界不斷拓展,智能體作為大模型的重要應用模式,正憑借其在規劃決策、記憶、工具使用等方面獨特的創新性和實用性,引領著一場產業變革。
為貫徹實施《國家人工智能產業綜合標準化體系建設指南(2024版)》,中國移動通信聯合會正式啟動三項團體標準研制工作:
●《人工智能智能體能力要求》(計劃號:T/ZGCMCA 011-2025)
●《人工智能智能體內生安全技術要求》(計劃號:T/ZGCMCA 023-2025)
●《人工智能智能體互操作性接口規范》(計劃號: T/ZGCMCA 024-2025)
現誠邀數據服務企業、醫療機構、科研院所、高校、檢測認證機構等全產業鏈
行業機構及
研發工程師、項目經理、應用專家
專業人士共同參與標準編制。
期待您的積極參與,讓我們攜手共進,共同引領人工智能產業的發展方向!
聯系人:李貞琦
聯系方式:18519753675(同微信)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.