![]()
機器之心發布
剛剛,世界模型初創公司 Feeling AI 正式發布并開源MemBrain1.5和CodeBrain-1。這兩項在全球 Agentic 領域的頂尖工作同時開源,將正式終結 AI “無狀態” 的工具時代,為世界模型植入具備自主邏輯與層級化記憶的 “原生大腦”,開啟人機深度協同的交互新范式。
- CodeBrain-1 開源地址:https://github.com/feelingai-team/CodeBrain
- MemBrain1.5 開源地址:https://github.com/feelingai-team/MemBrain
CodeBrain 如何為 Agent 換上 “編譯器之眼”?
CodeBrain 作為具備動態規劃與策略調整能力的 “進化大腦”,它通過優化任務的執行邏輯和錯誤反饋機制,顯著提升了模型在真實終端環境下的操作成功率。在技術實現上專注打磨了兩個直接影響 “能否成功且高效地完成任務” 的環節。一則是 Useful Context Searching:只用 “真正有用” 的上下文,二則是 Validation Feedback:讓失敗真正變成信息。
春節前 CodeBrain-1 搭載 GPT-5.3-Codex 底座模型更是在衡量 Agent 真實工程能力全球權威基準 Terminal-Bench 2.0 榜單上一舉沖到 72.9% 并躋身全球排行榜前列,成為榜單前 10 中唯一的中國團隊。
CodeBrain-1.5 持續領跑全球:性能更優、成本腰斬
除了此次開源的 CodeBrain-1,CodeBrain-1.5 以 81.3% 的成績,持續領跑全球開源和閉源隊列,在 Claude-Opus-4.6、MiniMax-M2.5、GLM-5、Qwen3.5 等 Terminus-2 Baseline 的基礎上均能大幅提升基座模型的成績和性能表現。
![]()
天下苦 Token 又費又貴久矣!
值得一提的是,除了技術指標的持續領先,CodeBrain 還大幅降低了開發者和付費用戶的使用成本。在 Terminal-Bench 2.0 的 89 全量任務測試中,使用 Claude-Opus-4.6 的 Token 成本為 $313.0,而在 CodeBrain 的加持下這一成本僅為 $112.9,直降 63.9%。這也證明了結構化感知不僅是精度問題,更是商業和生意問題。
實踐中的弊端越來越明顯:缺乏編譯器級別的診斷
目前的頂尖 Agent(如 Claude Code、Cursor、OpenCode)缺乏結構化的代碼智能,在處理小型文件時表現驚艷,但一旦進入多語言、數百萬行代碼的 Monorepo(大倉庫),便會陷入 “情報困局”。它們通常依賴原始的文本搜索(grep)和文件讀取(cat)來理解代碼,目前沒有標準方式讓 Agent 在編輯循環中獲取編譯器級別的診斷、符號導航或影響分析。這種方式在工程實踐中的弊端已經越來越明顯:
- 低效: 為了找一個函數定義,Agent 可能要執行幾十次 ls 和 find
- 模糊: 簡單的字符串匹配無法區分 “函數調用” 與 “注釋文本”
- 脆弱: 一旦環境配置微調,Agent 就會因為找不到依賴而陷入死循環
5 層架構:任何 Agent 均可調用的工業級邏輯大腦
Agent 的大腦在加速迭代中始終缺乏一套能看穿代碼邏輯的 “視覺神經”。針對這一瓶頸,CodeBrain 給出了一套極具工程美學的解決方案。它不是一個簡單的 Prompt 集合,而是一個分為 5 層、約 7,600 行代碼的Python 庫 + MCP 服務器,將 LSP 語言服務器和 tree-sitter 語法封裝為 11 個面向意圖的工具,任何 Agent 均可調用,并賦予 Agent 架構師級的邏輯直覺。其 5 層可堪為工業級架構包含:
- 核心層:模型,配置,工作區,工具鏈
- 引擎層: LSP 引擎 + 降級鏈,Tree-sitter 搜索
- 工具層: 8 個原子操作實現驗證、導航和搜索
- 技能層:上下文診斷,影響分析,符號搜索
- MCP 服務器:一鍵可用,11 個面向意圖的工具
![]()
此外,在此次開源的版本中還支持了多種供開發者靈活使用的功能:
- 多語言支持: Python、Go、TypeScript/JavaScript、C/C++ 統一接口。
- 優雅降級鏈:FallbackChain 在語言服務器不可用時自動切換到 CLI 工具(pyright、go vet、tsc)。
- Monorepo 感知:自動發現子項目并解析各自工具鏈(venv、go.mod、tsconfig、CMake)。
- 零框架耦合:純 Python,兼容任意 MCP 客戶端。
- 面向意圖的工具:將 20 個底層 LSP 操作整合為 LLM 實際需要的工具:validate、explore_symbol、search、check_impact、debug_trace、rename_symbol 等。
![]()
視頻鏈接:
https://mp.weixin.qq.com/s/-NYZl_zWbtsyFNmDH1FCUQ
開發者直接在 Claude Code 調用工具和 MCP 演示
讓 Agent 從 “工程師助手” 變為 “可信賴的交付專家”
基于嚴謹的架構設計和眾多靈巧的功能特性,CodeBrain 為 Agent 實打實帶來了頂尖工程師級別的能力升級和成本節省,讓 Agent 真正從 “聰明的工程師助手” 變為 “可信賴的交付專家”。
- 快速掌握項目結構:通過 outline + list_subprojects,Agent 一次調用即可獲取代碼庫的文件層級、符號樹和子項目邊界,替代數十次 ls、cat、find 操作。
- 降低代碼搜索成本:基于 tree-sitter 的結構化搜索(search)按語法角色查找符號(函數定義、類聲明、接口實現),而非簡單字符串匹配;結合 PageRank 符號圖,Agent 優先找到關鍵內容,無需在 grep 噪音中篩選。
- 收緊編輯-驗證循環:validate 在編輯后立即提供編譯器級診斷(錯誤、警告),附帶完整上下文(定義位置、引用、類型信息、修復建議);Agent 無需運行完整構建即可捕獲類型錯誤、缺失導入和簽名不匹配。
- 使重構更安全:check_impact + explore_symbol 在 Agent 提交更改前展示所有調用者、用途和下游破壞;rename_symbol 原子性地準備全工作區的重命名編輯。
- 加速調試:debug_trace 解析 5 種語言(Python、JS/TS、Go、C/C++、Rust)的堆棧追蹤,用 LSP 上下文豐富每幀(類型信息、定義、引用計數),自動定位根因 —— 省去 Agent 逐幀讀文件的過程。
- 跨環境可靠工作:優雅降級意味著 Agent 始終獲得診斷能力 ——LSP 可用時使用完整功能,不可用時自動切換到 CLI 回退(pyright、go vet、tsc)。check_health 報告各語言服務器狀態和修復步驟。
- 原生支持 Monorepo:自動檢測子項目邊界(pyproject.toml、go.mod、tsconfig.json、CMakeLists.txt)并解析各自工具鏈 ——Agent 無需預先了解倉庫布局。
- CodeBrain-1 開源地址:https://github.com/feelingai-team/CodeBrai
MemBrain 如何重構 Agentic 原生記憶大腦?
在 OpenAI 和 Anthropic 持續推高上下文窗口的上限時,MemBrain 的破局點在于用 Agentic 原生思路重構整個記憶系統。MemBrain 在算法結構的優化中,讓記憶系統學會 "主動思考",針對長時上下文進行了深度的結構化工程優化,以及讓 Agentic Memory 主動適配大模型原生能力,深度參與推理。
![]()
MemBrain 1.5 再次刷新多項主流測試 SOTA
MemBrain1.0 在 LoCoMo / LongMemEval / PersonaMem-v2 等多項主流記憶基準評測中拿下全新 SOTA,反超 MemOS、Zep 和 EverMemOS 等記憶系統和全上下文模型;在 KnowMeBench Level III 兩個難度等級最高的評測中更是比現有評測結果大幅提升超 300%。
![]()
![]()
對比一個多月前的 1.0 版本,MemBrain 1.5 除了在各項主流基準評測中的分數均顯著提升外,團隊還通過自適應實體樹算法等創新,進一步對記憶存儲、組織和檢索等策略進行了優化迭代。
純文本和圖結構都無法解決 Agent 的記憶難題
“一切皆文件” 的純文本方案(如 OpenClaw)簡單透明,格式上天然貼合 LLM 的閱讀習慣。LLM 可以自主設計目錄結構,文件路徑本身便構成一種層次化的組織方式,記憶以自然語言形態存儲,語義保真度高,表達靈活。但當同一條信息與多個上下文相關時,這些跨上下文的關聯并未被顯式建模 —— 它們散落在不同文件的自然語言段落中,系統層面沒有機制將它們結構化地關聯起來。但代價是把太多決策交給了 LLM—— 哪些信息值得記、怎么組織、新舊矛盾怎么處理,全靠 LLM 即時判斷。記憶的存儲和索引完全依賴自然語言結構,變更難以溯源審計;檢索主要靠 LLM 調用基礎工具逐個翻文件;記憶的管理和維護本身也需要大量 LLM 調用,token 消耗不經濟,響應延遲隨記憶量增長而惡化。
圖結構方案(如 Graphiti)走向了另一側。它把知識拆成三元組存入時序知識圖譜,每條邊帶有時間有效窗口。工程基礎恰好補上了純文本方案的短板:結構化程度高,溯源審計天然可做,embedding、BM25、圖遍歷等檢索手段都能方便集成,也支持流式處理和異步更新,查詢實時性好。但仍然存在一個根本性矛盾:當下主流基座模型的架構更適配線性或樹狀的信息排列,而圖結構的檢索主要依賴圖算法完成,LLM 無法深度參與搜索過程本身,只能在后續的結果聚合和 "翻譯" 環節介入 —— 將三元組和實體摘要拼成可用的上下文。這個過程不可避免地伴隨語義損耗。
純文本方案保留了語義保真卻缺失顯式關聯,圖結構方案建立了顯式關聯卻犧牲語義保真 ——MemBrain 1.5 嘗試從記憶組織拓撲方向上同時回應這兩個問題的一小步。
![]()
MemBrain1.5 持續進化的記憶組織拓撲
記憶的寫入、組織、檢索與過期,每個環節都需匹配精密的工程約束:既不能簡單地將其全盤拋給模型,也不該用僵化的工作流將模型徹底鎖死。MemBrain 1.5 新加入了自適應實體樹算法,從記憶組織拓撲持續優化 Agent 原生記憶能力。核心思路是在記憶管理的設計中,一部分由預定義的結構約束確定,一部分留給 Agent 去探索怎么用好。
以實體為中心,用自適應語義樹在兩者之間建立橋梁。樹的葉節點是從對話中提取的原子事實,中間層是由 Agent 按主題聚類生成的語義分支。樹的骨架 —— 層次路徑、深度限制、分支上限 —— 是先驗的工程約束;樹的內容 —— 怎么聚類、怎么摘要、新事實歸入哪個分支 —— 由專用 Agent 動態決定。輸出天然按 “實體 → 主題 → 事實” 分層組織,LLM 直接閱讀即可。寫入側,多 Agent 流水線承擔事實抽取、實體消解、結構更新;檢索側,Agent 的參與程度隨問題復雜度漸進升級。先驗的工程結構承擔 80% 的重活,Agent 的智能聚焦在真正需要判斷的 20% 上,這無疑既可以提升效率又能降低成本。
一次性解決 3 個關鍵難題:通過算法層的設計和創新解決信息怎么存、怎么組織和怎么找。
- 怎么存:富語境的原子事實
傳統圖方案把知識拆成 (A, 關系,B) 三元組 —— 一句自然語言就能說明白的事情,要拆成多條邊才能存進圖里,既困難又有損,語境關聯在拆分中不可避免地斷裂。
MemBrain 的原子事實走另一條路:每條事實本身就是一個 "小子圖",自帶時序信息,同時通過別名關聯到多個實體,天然無需拆分,并以統一的格式規范保證結構一致。別名指向實體本身,而實體的描述可以隨對話不斷演化 —— 因此每條事實本質上是一個可渲染的模板:事實內容穩定不變,但其中關聯的實體信息始終跟隨最新狀態。當事實作為檢索結果返回時,別名按需被動態替換為規范名稱和最新描述,最終給到 LLM 的文本既精確又自然,無需額外的格式轉換,同時附帶了更豐富的上下文。
- 怎么組織:自適應實體樹
這是 MemBrain 與圖方案最根本的結構差異。當一個實體在多條原子事實中反復出現,它就具備了聚合價值 —— 我們為這樣的實體維護一棵語義樹:根節點是實體,中間層是 Agent 自動聚類的主題分支,葉節點是具體事實。樹的每條路徑本身就承載了連貫的語義信息,從實體到主題再到事實,層層遞進。
這棵樹支持在線增量維護:事實較少時保持平坦結構,積累到閾值后由聚類 Agent 自動升級為層次結構;新事實由分配 Agent 判斷歸入哪個分支,過載時自動分裂,并定期異步聚合。維護復雜度隨數據量平緩增長,無需全量重建。同時,樹結構也提供了一條天然的檢索路徑 —— 沿主題分支向下導航,輸出按 "實體 → 主題 → 事實" 分層組織,給到 LLM 的是一份結構清晰的簡報,而非一堆需要自行拼湊的線索。
- 怎么找:漸進式檢索策略
大多數查詢走多路并行,一次出結果:全文檢索、向量檢索等傳統手段負責召回,MemBrain 獨有的樹檢索從主題分支提供全局視野,加上別名指針自動帶入實體的上下文信息,無需額外調用 LLM 即可快速響應。當問題需要跨主題聚合或推理時,系統啟用多查詢擴展,由 LLM 將問題改寫為多種互補形式分別檢索,拓寬召回面。而遇到涉及多個實體、多條時間線、單輪難以覆蓋的問題,則開啟Agentic 模式:第一輪檢索后由反思 Agent 分析信息缺口,判斷 "已經找到了什么、還缺什么",再定向補檢。
Agent 的判斷力被精確地用在它最擅長的地方 —— 判斷信息夠不夠、缺什么、怎么補 —— 而不是去操心底層的索引和排序。
社區開發者和普通用戶也可以輕松上手測評
開源的內容除了技術 Report 和源代碼外,社區用戶和開發者還可以直接通過一個前端 Demo 進行體驗。用戶只需在本地部署后配置自己的 LLM API KEY,即可在帶有系統提示詞的 AI 助手引導下,快速了解 MemBrain 的使用方法。
為方便用戶測試,在 Chat Demo 中用戶可以選擇已有人設信息的模版角色,也可以自己創建新角色并賦予角色個性化的人設信息,隨即展開一段記憶能力超絕的聊天體驗。
![]()
卓越的記憶能力為模型賦予了 “靈魂”。隨著 Memory 成為 Agentic AI 基礎設施層的核心標配,我們正在見證 AI 從 “無狀態” 的單次調用,向 “有意識” 的長程進化跨越。MemBrain 這種原生層級化記憶系統的出現,標志著 Agentic AI 正從單一的模型能力演進為深度的用戶體驗升級 —— 一個與用戶共同生長、深度耦合的共生型 AI 時代已正式開啟。
此外,針對 Memory Database 可視化,團隊還開源了一個 Benchmark Evaluation 的可視化工具,以便開發者更清晰的了解算法執行的情況。
![]()
![]()
Agentic Memory 實用的工程經驗與未來方向
此外,Feeling AI 還分享了一些實用的工程經驗與未來方向。
數據庫不應該僅僅是存儲待檢索對象的容器,它是記憶系統最重要的基建。他們的開發經驗是,把數據庫與記憶系統的耦合做得越緊密,收益越明顯。可溯源、可審計、可隔離、可同步 —— 這些能力讓實驗和迭代的節奏快了很多:每一步操作都有跡可循、可以回滾,試錯成本極低。當基建足夠扎實,Agent 在記憶管理中的每一次決策和結果都會自然地沉淀下來,成為系統持續改進的養分。
團隊還提到,另一個值得關注的方向是檢索過程本身的信號價值。目前對記憶系統的評測普遍關注最終答案對不對,但檢索路徑本身也在暴露記憶的組織方式與實際問題分布之間的 "摩擦"。一個自然的想法是:在檢索過程中順便對所經路徑上的記憶做輕量的動態調整,讓記憶組織自發地向高頻問題的分布靠攏 —— 每次調用不只是在 "取東西",也在順手理貨。真正的挑戰在工程側:怎么保證增量更新的穩定性,怎么把重組成本均攤到日常維護中異步消化,而不拖慢響應。
- MemBrain1.5 開源地址:https://github.com/feelingai-team/MemBrain
世界模型公司為什么也要做好 Agentic 大腦?
一個真正的 “世界模型”,不應只是現實的鏡像,而應是現實與 “智能大腦” 的有機合體。Feeling AI 認為動態交互是世界模型通向 AGI 的終極拼圖 —— 如何讓世界模型真正走向動態世界的智能交互,而世界動態交互的核心也正在從 “人” 變為 “人和 AI”,多模態融合是世界模型的原生框架。
缺乏認知與推理能力的世界模型只是一個 “沒有靈魂的空殼”。這就需要在世界模型的底層架構中,為世界模型配上 “原生大腦”,并設計好 Agentic 原生的多模態交互協議接口,這直接關系到用戶交互的體驗。其原創的跨模態分層架構提出了三層核心能力 —— 負責理解、記憶與規劃的 InteractBrain,負責能力執行的 InteractSkill,以及負責渲染呈現的 InteractRender,MemBrain 與 CodeBrain 都屬于 InteractBrain 部分,通過層級化記憶與代碼級理性的深度合成,精準定位在復雜動態交互場景下的深度理解與長程規劃。
此外,Feeling AI 創始人戴勃在最新接受媒體專訪時還透露,團隊在核心層 InteractSkill 部分也取得了重要進展,正在訓練一個全新架構的動力學世界模型,在 3D 原生的結構下通過原創的 IKGT 算法(Interactable Kinetics Grounded Transformer),實現對人類運動交互的生成與狀態預測,模型首次在 CPU 上跑出 300FPS 的響應速率,且模型通過實時推理達到了 100% 的狀態重置和糾偏,魯棒性極強。
動態交互底層模型能力的補齊,將與空間智能(李飛飛教授 World Labs)以及因果邏輯和常識智能(Yann LeCun AMI),共同加速世界模型底層基礎設施和核心能力的構建。
中國團隊持續在 Agentic 大腦和世界模型的底層能力比拼上,正以定義者的身份參與全球技術升級到工程和商業落地的閉環。從大語言模型到世界模型,從文字對話到多模態動態交互,生成式 AI 也許正在經歷一個必然的拐點 —— 全新的范式將在 “人與 AI” 的深度協同中形成,而世界模型正引領 AI 從 Next Token Prediction 走向更高維的 Next State Prediction。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.