Claw AI Lab團隊
量子位 | 公眾號 QbitAI
你還在一個人做科研嗎?
科研最難的,從來不是問題本身,而是一個想法從文獻到實驗再到寫作,只能靠自己一點點往前推。
一個人方向偏了沒人提醒,遇到歧義沒人討論,結果不對只能反復試錯。所謂的“自動科研”,很多也只是把這一切封裝成一條無人參與的流水線——人被拿掉了,但問題沒有變。
但真正高效的科研,從來不是流水線。它更像一個實驗室:不同角色同時推進,不同路徑并行展開,發(fā)現(xiàn)被共享,錯誤被更早暴露,方向在不斷討論中收斂。人始終在關鍵位置,做判斷、給方向、改路徑。
![]()
△clawailab.ai
由Liu Fayao(劉發(fā)耀,新加坡A*STAR研究科學家),Ye Deheng(葉德珩,前騰訊AI合伙人&首席專家)和Chen Tianrun(陳天潤,魔芯科技創(chuàng)始人)帶領的研究團隊提出了Claw AI Lab。
Claw AI Lab想做的,就是把這種協(xié)同方式變成一個可以運行的系統(tǒng)。你定義方向,多個agent協(xié)同推進,多個項目并行展開,過程持續(xù)演化;你可以隨時介入、修正、回滾,讓研究形成真正的閉環(huán)。
你不再是一個人做科研。
你是在帶一個實驗室,讓研究自己運轉起來。
金字塔式分層架構管理+用戶友好UI
Claw AI Lab采用金字塔式分層架構,將科研流程拆解為從研究方向設定、方法設計與實驗規(guī)劃,到代碼實現(xiàn)與結果分析的多層級體系,形成自上而下逐級細化的科研閉環(huán)。
每一層由專屬Agent負責,通過任務隊列與上下文緊密連接,使系統(tǒng)既具備全局規(guī)劃能力,又能高效執(zhí)行細節(jié)任務。同時,上層決策可根據(jù)下層實驗結果動態(tài)調整,實現(xiàn)持續(xù)迭代與閉環(huán)優(yōu)化。
![]()
△Claw AI Lab的操作界面
系統(tǒng)提供可視化操作界面,用戶可以像PI一樣定義研究課題、拆解任務,并實時查看各個Agent的執(zhí)行狀態(tài)與中間結果。復雜的科研流程被抽象為直觀的操作與進度面板,大幅降低使用門檻。
同時支持三種模式
Lab討論模式:多方向并行調研,跨方向討論達成共識,生成統(tǒng)一假設。
Lab獨立研究模式:多方向并行調研,各方向共享知識庫獨立生成假設,速度更快但無跨方向共識。
論文復現(xiàn)模式:單Agent全流程復現(xiàn)目標論文的方法與實驗。
Claude Code Harness
如果說傳統(tǒng)AI編程助手解決的是“寫一段代碼”,那么Claw Code Harness解決的是“把一個研究想法真正落成可運行實驗”。
在Claw AI Lab里,模型不再一次性吐出代碼片段,而是像工程師一樣進入Turn Loop:先讀取本地代碼庫、數(shù)據(jù)集和模型檢查點,再迭代完成“理解任務、編寫main.py、運行測試、定位報錯、繼續(xù)修復”的閉環(huán)。
![]()
△實驗代碼生成流程
更關鍵的是,系統(tǒng)會在運行環(huán)境中注入一個不可編輯的Experiment Harness,統(tǒng)一負責時間預算控制、指標上報、異常值校驗,以及最終生成標準化的results.json。這意味著Claw不只是“會寫代碼”,而是在建立一條從想法到實驗結果的可信執(zhí)行鏈路,讓AI生成的不是demo,而是真正能落地、能復現(xiàn)、能被繼續(xù)優(yōu)化的研究代碼。
從“單一”智能體到“群體”智能
科研從來不是單打獨斗的過程。真正重要的突破,往往誕生于反復的討論、質疑與修正之中——一個想法被提出、被推翻、被重構,在多輪批判與協(xié)作中逐漸逼近正確答案。
想象以下場景:你創(chuàng)建了一個具身智能實驗室,你是PI并且你有三名研究員,他們的方向分別是VLM、VLA和World Model。你希望研究一下具身智能里面最新的video action model最能落地的方向。
![]()
討論前:
![]()
World Model研究員
主張worldmodel+邊預測邊做決策,認為可控性、安全性和在線重規(guī)劃才是工業(yè)部署的關鍵;
VLA研究員
主張train with video, infer with action,認為訓練時使用視頻監(jiān)督、執(zhí)行時直接輸出動作,才兼顧效率與閉環(huán)穩(wěn)定;
VLM研究員
認為短期最容易落地的不是直接控制,而是任務理解、執(zhí)行監(jiān)控、異常預警和自動化,因為這些模塊更容易進入真實系統(tǒng)。
在Claw AI Lab里,討論并結合各家優(yōu)缺點,收斂出更強的idea得出一套更優(yōu)、更可部署的方案,如下:
- 訓練階段,用視頻監(jiān)督學習更強的動態(tài)表征;
- 執(zhí)行階段,保留直接動作輸出,確保低時延閉環(huán)控制;
- 系統(tǒng)上層,引入planning / safety layer做重規(guī)劃和約束篩選;
- 執(zhí)行旁路,增加步驟理解、異常監(jiān)控、anticipation和可解釋推理,用于糾錯、恢復和長期運維。
除此之外,在Claw AI Lab內(nèi),討論不會只給一個“看起來合理”的答案,它還會把爭議背后的原因挖掘出來。
爭議一:人類視頻到底該不該直接遷移到機器人動作?
共識:它的近中期最大價值在于預訓練和中間表示,而不是直接替代低層動作監(jiān)督。
爭議二:為什么World Model和VLA有截然不同的主張?
共識:前者代表系統(tǒng)可控性與安全性,后者代表低時延執(zhí)行效率,真正更穩(wěn)健的路線不是二選一,而是把兩者放進同一個分層閉環(huán)里。
所以,Claw AI Lab不只是“讓多個agent一起說話”。它更像一次真正的組會,分歧被展開,假設被暴露,證據(jù)被對齊,路線被重組,最后產(chǎn)出更強的共識、更清晰的優(yōu)先級,以及下一步真正值得驗證的研究方向。
科研不再只是生成一個結果,而是一個由群體智能驅動、不斷收斂和演化的過程。
Lab模式的項目結果示例
項目簡介:這個項目旨在對大模型中的hallucination進行系統(tǒng)化量化,不僅判斷結果是否出錯,還深入到推理過程,識別錯誤是如何產(chǎn)生、如何傳播的。其難點在于缺乏統(tǒng)一標準答案、錯誤往往具備“表面合理性”,且在多步推理中會被不斷放大。為此,項目通過結構化拆解模型輸出流程,引入多維度一致性與過程級分析,實現(xiàn)對hallucination的細粒度度量與定位,從而將這一長期依賴經(jīng)驗判斷的問題,轉化為可分析、可優(yōu)化的工程問題。
![]()
論文復現(xiàn)模式的項目結果示例
項目簡介:這個項目旨在在真實工程環(huán)境中復現(xiàn)PhyCustom在FLUX模型上的效果,不只是復現(xiàn)論文結果,更驗證“物理屬性可控生成”能否在復雜系統(tǒng)中穩(wěn)定落地。其難點在于,物理屬性難以被生成模型準確表達,同時復現(xiàn)過程對數(shù)據(jù)、訓練細節(jié)和實現(xiàn)路徑高度敏感,稍有偏差就可能導致結果失真甚至失效。為此,項目通過將方法嵌入完整的實驗執(zhí)行鏈路,對關鍵步驟進行約束與追蹤,使每一次訓練與生成都有可依賴的上下文與反饋,從而讓復現(xiàn)過程從“不可控的試錯”,轉變?yōu)椤翱勺粉櫟南到y(tǒng)性驗證”。
![]()
代碼鏈接:
https://github.com/Claw-AI-Lab/Claw-AI-Lab
項目主頁:
https://clawailab.ai/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.