![]()
![]()
“我們想探索人和AI共存的社會是什么樣的。”
作者|王藝
編輯|王博
北京時間1月13日凌晨四點,Anthropic發布AI智能協作工具Claude Cowork,AI辦公自動化領域從此迎來全新時代。
![]()
Claude Cowork定位為辦公領域的“Claude Code”,圖片來源:Claude官網
6個小時后,X上的一條推文像一記“破壁彈”打破了AI圈子的情緒閾值:“Anthropic Claude Cowork 剛剛殺死了我們初創公司的產品——所以我們做了最理性的決定:將它開源。”
![]()
Claude Cowork發布六小時后一篇火爆X平臺的推文 圖片來源:X
很快,它收獲了8000+點贊、180萬+瀏覽,討論的矛頭也從Cowork轉向了另一個名字:Eigent AI。
Eigent AI是一個開源多智能體(Multi-Agent)協作平臺,用戶可以用它在電腦上創建由多個AI Agent組成的虛擬團隊。與單一的AI聊天助手不同,Eigent能夠協調多個專注于不同領域的Agent(如搜索員、程序員、文檔編寫員)并行協作,解決復雜的長周期任務。
Eigent AI(下文簡稱Eigent)的背后,是CAMEL-AI開源社區,以及它的創始人李國豪。李國豪擁有阿卜杜拉國王科技大學(KAUST)計算機博士學位,曾任牛津大學Philip Torr教授課題組的博士后研究員,曾在多個頂級國際會議與期刊(如ICCV、CVPR、ICML、NeurIPS、RSS、3DV和TPAMI)上發表論文。
![]()
CAMEL AI部分成員合照,右一為李國豪。 圖片來源:受訪者提供
在當下的AI戰局中,他扮演著一個特殊的角色——“破壁人”。
在《三體》中,破壁人看穿了面壁者深藏不露的戰略意圖,將那些試圖以絕對封閉來掌控全局的計劃公之于眾,徹底擊碎了思維的堡壘。而在今天的AI世界里,當OpenAI、Anthropic等頂尖團隊正試圖用閉源模型和斥資數億美元買斷的“訓練環境”筑起高墻時,李國豪選擇用“開源”來打破這堵墻。
他不僅用開源把巨頭的圍墻撬開一條縫,爭取“智力的自由”;還在探索用多智能體把“單體智能”的天花板推到“組織級智能”。在他眼里,真正值得規模化的,不是一個能干活的智能體,而是一套能不斷擴展成員、擴展環境、擴展協作邊界的“智能體社會”。
“沒有心智社會就沒有智能。智慧從愚笨中來。”這是人工智能之父馬文·明斯基在其著作《心智社會(The Society of Mind)》中的一句話,這本書也是李國豪最喜歡的書之一,深刻影響了他對AI未來的構想——李國豪堅信“Local-first(本地優先)”,認為AI是人類智力的外延,不應被少數巨頭壟斷,而應像PC時代的個人電腦一樣,完全屬于用戶自己,并在多樣性的“心智社會”中協作與進化。
近日,「甲子光年」與李國豪進行了一場長達兩個半小時的深度對話。我們聊了聊他被巨頭“逼到墻角”后的開源反擊,探討了他打破大廠“環境”壟斷的破壁行動,也走進了這位曾經“沉迷游戲、差點退學”的非典型學霸的AGI狂想世界。
以下為對話實錄,經「甲子光年」編輯整理。
1.直面巨頭
甲子光年:1月13日,在Anthropic發布Claude Cowork之后,你第一時間發推特宣布Eigent開源,并說“Cowork殺死了我們的產品”。Eigent是怎么誕生的?產品被巨頭逼到墻角,你的第一反應為什么是“開源”而不是“保密”?
李國豪:關于Eigent,最早可以追溯到我們在2023年3月份做的一個開源項目,叫CAMEL。當時 OpenAI 剛開放 API 沒幾天,我們在推特上發布了這個項目。那是非常早期的階段,我們應該是世界上第一個用ChatGPT(OpenAI 的 API)來做 Multi-Agent(多智能體)系統的工作。
當時這個項目在推特上挺火的,比同期一些后來非常火的項目(比如 AutoGPT、BabyAGI,包括斯坦福小鎮)可能還要早一到兩個星期。項目火了之后,大概一個星期就收獲了4000多個Star,后來這篇論文也被AI頂會NeurIPS 2023接收了。
慢慢地,這個項目發展成了一個開源社區,我們在社區基礎上做了很多不同類型的工作。最后,我們從社區里招募了一些同學,大家聚在一起,在英國成立了現在的這家創業公司。這就是大概的來龍去脈。
![]()
CAMEL-AI簡介 圖片來源:Github
面對巨頭的產品,我們之所以選擇開源,是因為我們未來的愿景本來就是想做一個完全本地化的、甚至是可以自我進化的Agent。這需要有開源的模型、開源的框架、開源的產品,以及開源的Agent環境。
跟Cowork相比,我們最大的區別就是“完全開源、本地化”。Cowork更多是給C端用戶使用的,而我們的設計理念是注重用戶數據隱私,你的數據不會發送到我們的服務器。你可以完全在企業內部部署,支持任意模型的切換,不綁定任何供應商。只有所有東西都私有化部署,你才能擁有完全自主的AI。
甲子光年:你最近在X上發帖說“個人AI的未來就在本地,就在你的桌面上”。你為什么如此強調“Local-first(本地優先)”?
李國豪:我覺得我可能是一個自由主義者吧(笑)。
我認為,現在的LLM或者AI更像是你智力外延的一部分。它包含了你很多的知識、記憶和上下文。既然它是你智力的一部分,它就不應該存在于云端,不應該被某家模型公司所擁有。它應該完全屬于你,你有完全的自主權去定制它、改變它,甚至隨時銷毀它。
從市場角度看,我們想要構建一個“AI的PC時代”。你的Intelligence應該像你的電腦一樣能夠隨身攜帶。你不需要聯網,充上電就能用,也不需要付token的錢。未來所有的模型和Agent都可以被本地化,你只需要下載、安裝、使用。
甲子光年:你覺得這個“AI的PC時代”什么時候會到來?
李國豪:它的到來比我想象的要快。我們去年7月發布產品時,大家對“為什么要用一個桌面端的本地Agent”還沒有那么強烈的感受。但今年1月Cowork火了之后,大家突然意識到我們需要一個桌面端Agent,這大大加速了市場的認知。
同時,從模型和技術層面看,開源社區的模型越來越好,離最好的閉源模型可能只有幾個月的差距,而且這個差距不會被拉大,可能會慢慢追平。加上各種模型推理技術(比如vLLM等)的成熟,現在我們在MacBook Pro上部署模型和Agent,就已經能完成很多簡單的自動化任務了。
甲子光年:目前Eigent的商業化閉環實現了嗎?
李國豪:在今年之前,我們的商業化進展是非常慢的。但在今年1月份,我們已經實現了盈利。目前我們的客戶主要來源于兩個群體:一是模型公司,我們在給他們做一些環境構建;二是企業客戶,我們幫IT、銷售等部門解決自動化的問題,幫他們操控瀏覽器、完成任務。
這是一個比較標準化的產品,客單價一般在10萬美元上下,主要包含產品License的費用和一部分系統集成的定制化費用。
甲子光年:作為兩個成功開源項目的負責人,你覺得自己是AI開源領域的“破壁人”嗎?
李國豪:我覺得還談不上成功,然后“破壁人”可能不太合適,我不是要反對閉源路線,只是希望一個完全開源的 Agent生態應該存在。其實開源研究創業挺苦,比起去比在Frontier Labs(前沿實驗室)里做研究,可能是Hard Mode(困難模式),如果硬要找一個詞來形容,我覺得自己只是開源生態里的一個普通添磚人吧。
2.探索Agent的Scaling Law
甲子光年:2023年3月你們發表了CAMEL論文,提出了基于角色扮演(Role-playing)的多智能體框架。當時的靈感來自哪里?
李國豪:最早的動機來源于對AGI的思考。ChatGPT出來后驗證了Model Scaling Law是work的,但我當時在想,僅僅靠模型能力的提升,能否到達AGI?在模型的ScalingLaw之后,是否存在Agent層面的ScalingLaw?
所以我們想探索人和AI共存的社會是什么樣的。我們在論文里提出了“AI Society(AI社會)”的概念,就是多個Agent能夠形成一個社會組織,小到兩三個Agent協作,大到形成一個公司甚至社交網絡。
![]()
李國豪團隊在《CAMEL:Communicative Agents for “Mind” Exploration of Large Language Model Society》論文中提出了“AI Society”的概念
在這個過程中,我們讓Agent相互協作、角色扮演(比如一個扮演開發者,一個扮演游戲玩家),生成了大量的數據。我們用GPT-4生成數據,再去微調像LLaMA這樣的小模型,實現了很好的效果提升。
甲子光年:你提出“Scaling Laws of Agents”時,最在意的衡量指標是什么?你最不看好哪些指標?
李國豪:這是一個非常好的問題。Model Scaling有一個很好的指標,就是看損失函數(Loss)或者在Benchmark上的性能。但Agent Scaling Law很難找單一的指標。
我不太看好的指標是那些簡單的學科類評測集(比如MMLU),用這種任務來衡量Multi-Agent系統是比較錯誤的方向。因為很多任務用一個Agent就能完成得很好了,沒必要用多智能體。
我最在意的指標是:它是否解鎖了新的應用場景?是否能模擬組織(Organization)甚至社會(Society)做的事情?
比如,我們能否用大規模的Agent系統去模擬X(原Twitter)或Reddit這樣的社交網絡?能否模擬出人類社會的規律,比如信息傳播、從眾效應、觀點極化?如果在發布一個真實產品前,我們能用幾十萬個Agent去模擬市場的反饋和推演,那么這種“模擬多大規模復雜系統”的能力,才是我最在意的指標。
甲子光年:現在也有觀點認為“單智能體+技能庫(Skill Library)”在token和延遲上更劃算。你怎么看?多智能體不可替代的部分是什么?
李國豪:多智能體在企業落地時有一個很現實的好處:權限管理和模塊化。不同部門需要不同的Agent和權限。
但在技術層面,多智能體不可替代的是“大規模任務的并行”。我們支持三個維度的并行:任務拆分后的子任務并行、Worker層面的復刻并行、以及工具層面的并行。比如我們能在幾分鐘內并行200個任務去開發200個小游戲,這是單智能體很難做到的。
![]()
CAMEL-AI和AWS、Qwen、魔搭、SGLang、Zilliz、FishAudio等團隊在上海舉辦的多智能體黑客松活動 圖片來源:CAMEL-AI
甲子光年:你剛才提到想要探索人和AI共生的社會是什么樣的,那你怎么看待斯坦福小鎮和現在爆火的Moltbook?
李國豪:非常有意思。斯坦福小鎮模擬的是社交行為,而CAMEL模擬的是Agent協作完成任務。我們當時其實在思考同一個事情:在非常大規模的Agent社會里,會誕生什么有意思的現象。
![]()
斯坦福小鎮實驗論文《Generative Agents: Interactive Simulacra of Human Behavior》
Moltbook出現的時間點是Agent能力變得更強了,它真的能操控你的電腦了。但我覺得它目前更多是輸出了情緒價值,還沒有產生很多Economic(經濟)的影響。
![]()
Moltbook是一個專為人工智能代理設計的互聯網論壇。它由企業家Matt Schlicht于2026年1月推出圖片來源:Fortune
我們人類社會是有信任系統的,比如你有簡歷、學歷、信用卡,外界才能了解你,社會才能運作。但現在的Agent模擬沙盒還沒有這樣的信任系統和經濟系統。未來這個事情需要存在,比如我想看病,我就能通過信任系統知道該找哪些Agent去做。
甲子光年:在Agent的規劃(Planning)和記憶(Memory)方面,有哪些值得期待的研究方向?你更相信長上下文還是外部記憶系統?
李國豪:這兩者會同時存在。長上下文是訓練階段解鎖的基礎能力,每個人都需要長上下文的Model。但它是一個通用的能力。
而模型外掛的Memory里,能夠實現更多Personalized(個性化)的信息。未來的方向是如何在Continuous Learning(持續學習)階段做好Agent。比如自動學到你的獎勵函數(Reward Function),根據你的Feedback學到你的價值是什么,在持續使用的過程中實現Planning和Memory能力的個性化提升。
3.得環境者得天下
甲子光年:你們最近開源了400多個Terminal Agent的訓練環境SETA。請問你們發布的目的是什么?能否詳細介紹一下SETA這個項目?
李國豪:SETA是我們正在做的一個項目,目的是讓Agent學會去使用Terminal(命令行終端)。目前在這個領域,有一個名為Terminal Bench的基準測試(Benchmark),被OpenAI等頭部模型公司用來評估Agent使用Terminal的能力。但這個Benchmark的數據量很少,大概只有不到100條。
目前開源領域非常缺乏用于訓練Agent使用Terminal的數據環境。所以我們做的事情,就是研究如何去擴大(Scale up)這種環境的構建規模。我們提出了一種自動化的Pipeline,能夠根據一些種子數據(比如論壇里的QA問答),自動構建出Docker環境。在這個環境里,Agent可以使用命令行來解決實際任務。
上次發布時我們開源了400多條環境,2月初我們又發布了1000條,所以現在總計有將近1400條訓練環境。
甲子光年:我可以把“環境”直接理解為“訓練數據”嗎?
李國豪:可以這么理解,環境就是Agent的訓練數據。
傳統語言模型的訓練數據通常是純文本(輸入輸出都是文本)。但Agent的訓練數據不同,Agent需要與數字世界或物理世界進行交互。比如操控一個網頁、操控一部手機、操控一臺電腦,這些都是“環境”。它包含了很多非自然語言的部分。
Agent在強化學習階段,環境可以給它提供獎勵(Reward)來優化策略(Policy);或者環境能夠產生大量的交互軌跡(Trajectories),這些軌跡可以被用于語言模型的預訓練(Pre-training)或中繼訓練(Mid-training)階段。
甲子光年:你之前發帖說“Frontier labs spend millions purchasing RL environments(前沿實驗室花費數百萬美元購買強化學習環境)”。為什么“環境”在你心里比“模型/代碼”更值得Scale?
李國豪:語言模型的訓練數據主要是文本,天然存在于互聯網上。但Agent的訓練數據是“環境”。Agent需要跟數字世界或物理世界交互,比如操控網頁、手機、電腦,這些軌跡在互聯網上是不存在的。
你要訓練Agent,就必須構建環境、設定任務、并配備驗證器(Verifier)來判斷Agent做得對不對。這就導致構建環境非常難,且極其昂貴。據我所知,很多大廠買一個高質量環境的預算都在幾萬到百萬美元級別。
為什么CodingAgent(如Devin、Cursor)能做得這么好?因為代碼環境最容易構建,GitHub上有天然的Issue、PullRequest和單元測試(天然的Verifier)。但如果Agent要泛化到其他企業服務或日常場景,環境構建的成本是極高的,價格范圍大概在幾萬美元到上百萬美元之間。它的成本和價格主要取決于以下幾個構成部分:
第一,沙盒的逼真程度與數據量。比如你要克隆一個Airbnb的網頁,里面掛載1萬條民宿數據和掛載100萬條數據,價格是完全不一樣的。
第二,任務的構建難度。有了沙盒和數據后,什么樣的任務對提升Agent能力真正有用?比如設定一個任務:“在紐約預訂一個200刀左右、適合開學術會議的房間”,設計這種高質量任務本身就需要成本。
第三,驗證器(Verifier)的開發。這是最難的地方——如何通過代碼去自動驗證Agent是否真的找到了符合條件的好房間?通常任務和配套的Verifier是打包在一起售賣的。
所以,環境的價格是由沙盒的逼真度、底層數據量、任務的難度以及驗證器的復雜性共同決定的。
甲子光年:既然環境這么貴,是核心護城河,你們為什么還要開源?
李國豪:主要有以下幾個角度的原因:
第一,反哺產品。我們的產品中一個很重要的部分,就是讓Agent使用Terminal來寫腳本、完成代碼任務(如數據分析、電腦操控等)。為了讓我們的產品變得更好,我們需要構建更多這樣的訓練數據。
第二,繁榮開源生態。我們希望開源領域能有更多這類數據出現,從而讓開源模型變得更強。實際上,我們這批數據已經被用于一些開源模型的訓練了,比如階躍星辰的朋友就和我們交流過,他們正在使用我們的數據訓練模型。
第三,商業化展示。我們同時也在做這方面的商業化,為大模型公司構建訓練環境。開源這些環境,也是向大家展示我們在環境構建方面的能力,建立信任。
第四,建設社區。擴大(Scaleup)環境規模是一件極其困難且昂貴的事情,單靠我們一家小公司和社區是做不完的。我們希望通過開源,吸引更多有相同愿景的愛好者加入我們,或者啟發其他團隊跟進。只有這樣,開源模型才會更好,我們產品能用到的底層模型才會更強,最終才有可能實現我們所想象的——完全個性化、本地化的Agent的存在。
甲子光年:所以你認為“環境規模”是Terminal Agents的關鍵瓶頸。同理類比大語言模型,訓練數據越多,Scaling效應越明顯,這又回歸到了你之前提到的Agent Scaling Law?
李國豪:對的。我們定義的Agent場景分為三個維度:一是Agent的數量與規模,二是環境的構建與復雜性,三是自我演進。環境是Agent Scaling Law里非常重要的一部分。
但它和傳統模型數據最大的區別在于:適合Agent使用的環境,在互聯網上并不是天然存在的。
比如,如何操控瀏覽器或手機來完成一個任務,這種交互軌跡在互聯網上是沒有現成答案的(不像數學推理題在教科書里有答案)。這就導致構建它非常困難。為了實現Scaling,我們必須去主動構建這些環境,包括設定任務、搭建沙盒,以及開發能夠驗證Agent做得對不對的驗證器(Verifier)。
甲子光年:這里可能有個誤區,比如我們要訓練Agent去操控網頁訂酒店,Booking這樣的真實網站不是天然存在于互聯網上嗎?為什么不能直接用?
李國豪:真實網站確實存在,但它非常不適合用來做Agent訓練。
首先是現實因素,真實網站通常會把你的Agent當作機器人攔截(Block)掉。
其次,真實網站無法進行狀態的回溯(Rollback)或分支(Branching),而且充滿隨機性。這極大地局限了Agent的訓練。
所以在構建Agent環境時,我們通常會去完全復刻一個網頁,讓研究人員擁有完全的控制權(包括控制前后端和數據庫),能夠自由地做分支和回溯。只有具備這種靈活度,才能高效地訓練Agent。
甲子光年:你提到的Agent訓練方法很類似強化學習,你是一個強化學習方法的信仰者嗎?怎么避免RL訓練在開源社區里走向“刷榜/拼算力”的局面?
李國豪:我開始做AI的時候,確實是因為看到了強化學習在打游戲、下圍棋上的厲害之處,但我并不是任意一種方法的狂熱信仰者。我更多是從解決問題的角度出發。
現在環境最大的用途確實是被用來做強化學習,但也許到了2026年我們會發現,環境最大的用途并不是強化學習。這些環境同時也能被用在Agent的Pre-training(預訓練)或Mid-training(中繼訓練)階段。我們可以根據環境大規模并行,構建大規模的Agent軌跡,這些軌跡甚至可以是非常rough(粗糙)的,不一定要在強化學習階段去使用。
4.非典型學霸的AGI狂想
甲子光年:聊聊你個人吧。看你的履歷,本科是哈爾濱工業大學電子信息工程專業,后來去了沙特阿卜杜拉國王科技大學(KAUST)讀博。為什么會有這樣的路徑選擇?
李國豪:其實我從小到大一直是個好奇心很重的人,但在做AI研究之前,我一直沒有找到具體的目標。我本科的時候天天沉迷網絡游戲,逃課、掛科,績點非常低,3.0都不到,差點被退學。
后來讀研接觸到AI,發現強化學習可以用來打游戲,甚至能造出一個比我打得還好的AI,我突然覺得這事太有意思了。再后來我覺得,實現AGI可能比打游戲還有意思。這是我人生中第一次找到想要堅持努力的方向。
決定讀博時已經很晚了,因為績點太低,很多學校申請不了。機緣巧合下我去了沙特KAUST訪問,遇到了非常好的導師。而且KAUST的資源極其豐富,獎學金高、住別墅,最關鍵的是算力充足——我當時一個人就能用幾十張甚至上百張A100卡,這在其他地方是不可能實現的。
甲子光年:你的研究興趣從強化學習、圖神經網絡,一路演進到大語言模型和Agent。為什么會發生這樣的轉變?
李國豪:最開始做AI的時候,我研究的是強化學習(RL),主要落地在無人駕駛和無人機領域。但我發現一個問題:強化學習Agent往往只能在單一領域訓練和使用,極難泛化。比如訓練一個賽車Agent,它甚至需要同一張地圖才能表現好,更不可能讓它去泛化到操控無人機。
那是2017、2018年左右,我認為當時的瓶頸不在于強化學習算法本身,而在于基礎的神經網絡架構和表征學習沒做好。因此,我的研究方向發生了第一次轉變——去探索什么樣的新型神經網絡架構能更好地泛化、解決跨領域問題。我當時認為圖神經網絡(GNN)可能是通向AGI的一個重要方向,因為它可以對各種領域的問題進行建模,比如分子藥物結構、蛋白質結構、人類社交網絡等。同時,我也在做NAS(網絡架構搜索)和AutoML相關的自動網絡架構設計研究。
轉向大語言模型和Agent是因為中間有個插曲。我在ETH(蘇黎世聯邦理工學院)做過一個關于Robot Learning(機器人學習)的項目,研究如何讓Agent在未知空間里做目標導航(Object Navigation)。在2020年左右,我發現可以用語言模型來很好地預測物理空間中物體的存在性和距離,從而指導機器人導航。這在我腦海里埋下了一顆種子:語言模型在解決泛化性問題上有巨大的潛力。
后來,模型架構迎來了“大一統”,無論是視覺、圖神經網絡還是語言模型領域,大家都在用Transformer。在ChatGPT問世的那一瞬間,我突然意識到,Transformer這種大一統的架構,讓我們重新看到了實現通用Agent的可能性。它一定程度上解決了我最初想探索的“什么樣的神經網絡架構和表征學習能讓模型具備理解世界的能力”這個問題。有了理解世界的能力,才能解決Agent如何行動的問題。
所以,我的路線大概是:一開始讀博相信強化學習能通向AGI——發現表征學習是瓶頸,轉向圖神經網絡模型架構——大一統和ChatGPT出現后,發現語言模型的泛化能力解決了基礎問題——再次切換方向,回歸到做基于大語言模型的Agent。
甲子光年:你現在怎么看大語言模型的Transformer架構?它會是一統天下的終極解嗎?
李國豪:Transformer最大的問題還是效率,它在神經網絡里沒有記憶,導致推理時上下文不斷增加,成本極高。
我覺得如果未來真的存在范式級的變化,那它必須是“超越神經網絡范疇”的。
舉個例子,我想象中的一種新架構是:在預訓練階段,Agent不僅有神經網絡的大腦,還有非神經網絡的“身體”(比如它能操控的CPU、Memory、操作系統)。在訓練過程中,Agent能否構建出自己的系統內核?基于這個內核,它自己寫編譯器、寫軟件、自己接入互聯網。
這種“神經網絡+符號系統/計算系統”的、可以自我學習和演進的系統,才可能帶來真正的范式變化。僅僅魔改神經網絡架構,是遠遠不夠的。
甲子光年:最后一個問題,你最喜歡的一本書是什么?
李國豪:對我做CAMEL啟發最大的是馬文·明斯基的《The Society of Mind》(心智社會)。
這本書非常深入地剖析了人類智能是怎么來的。它里面有一個核心觀點:人類的智能來源于多樣性(Diversity)。
未來的Agent社會其實也一樣。我們如何讓Agent進化?如何跟人類協作?如何擁有個性化的Agent?這都需要多樣性。這本書里關于記憶系統、長思維鏈(Long-CoT)、Agent通訊、甚至世界模型的討論,在今天看來都極具預見性。我非常推薦所有做AI Agent的人去讀一讀。
(封面圖來源:受訪者)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.