![]()
機(jī)器之心發(fā)布
隨著新一代主動執(zhí)行型 Agent(如 OpenClaw、Hermes Agent 等)的爆發(fā),AI 正經(jīng)歷從「被動工具」向「具備自我演化(Self-Evolving)能力的智能體」的范式躍遷。然而,受限于上下文窗口極限與記憶缺失,現(xiàn)有 Agent 難以在復(fù)雜任務(wù)中實(shí)現(xiàn)經(jīng)驗(yàn)的復(fù)用與自我進(jìn)化。
在此關(guān)鍵節(jié)點(diǎn),EverMind 團(tuán)隊(duì)重磅公測行業(yè)首個(gè)專為自我演化智能體設(shè)計(jì)的記憶底座 ——EverOS。順應(yīng) AI Coding 帶來的變革,EverOS 打破傳統(tǒng) Infra 模式,重構(gòu)為原生適配 Agent 無縫調(diào)用的下一代基建。依托入選 ACL 2026 頂會的核心算法與首創(chuàng)的 Skills 進(jìn)化引擎,EverOS 讓 Agent 能從交互中自動提煉技能,將復(fù)雜任務(wù)成功率最高相對提升 234.8%。
這不僅是一次基建的重塑,更是為 AI 注入持續(xù)學(xué)習(xí)的「數(shù)字靈魂」,全面開啟智能體的覺醒序章。
更多信息請?jiān)L問:
- 官網(wǎng):everos.evermind.ai
- GitHub:https://github.com/EverMind-AI/EverOS
![]()
在過去的一年中,大語言模型(LLM)的演進(jìn)軌跡出現(xiàn)了一個(gè)明顯的拐點(diǎn):模型參數(shù)量的軍備競賽逐漸放緩,而圍繞Harness Engineering 和「記憶機(jī)制」(Memory Mechanism)的基建爭奪戰(zhàn)卻愈演愈烈。
從學(xué)術(shù)界的 Long Context 刷榜,到產(chǎn)業(yè)界各種記憶系統(tǒng)框架的層出不窮,整個(gè) AI 行業(yè)都在試圖基于長期記憶解決一個(gè)極其硬核的工程難題:如何讓 AI 突破上下文窗口限制,擁有個(gè)性化和行為一致性,且自我進(jìn)化?
尤其是在 OpenClaw 爆火之后,各種能交付結(jié)果的主動執(zhí)行型 Agent 迎來了井噴。然而在浪潮退卻后發(fā)現(xiàn),目前的 Agent 們依然面臨著諸多痛點(diǎn):龍蝦們依然會在執(zhí)行多輪任務(wù)后,忘記歷史指令;過度的 Token 消耗極易觸發(fā) Anthropic 等大模型的嚴(yán)格限流甚至封號機(jī)制;Agent 需要開發(fā)者手把手地「喂養(yǎng)」,無法做到舉一反三與自主進(jìn)化。
更不用提,經(jīng)常出現(xiàn)的上下文窗口超出限制,面對復(fù)雜任務(wù)時(shí)讓人不得不棄用的成功率,以及無法在不同 Agent 實(shí)例間無縫復(fù)制已學(xué)記憶的障礙。
EverMind 是盛大集團(tuán)旗下專注 AI 長期記憶與認(rèn)知架構(gòu)的創(chuàng)新團(tuán)隊(duì),致力于打造具備自我進(jìn)化能力(Self-Evolving)的主動型個(gè)性化 AI。通過突破上下文管理的瓶頸,以極低的成本和高效率賦予 AI Agent 真正的個(gè)性化與行為一致性。同時(shí),在用戶與 AI、多智能體間(Multi-Agent)的持續(xù)交互中,AI Agent 能夠跨越單次會話限制,依托持續(xù)學(xué)習(xí)(Continual Learning)等技術(shù)實(shí)現(xiàn)真正的自我演進(jìn)。
在這個(gè)行業(yè)演進(jìn)的關(guān)鍵節(jié)點(diǎn),EverMind 團(tuán)隊(duì)發(fā)布重磅更新:長期記憶 Infra 平臺 EverOS 品牌升級,同時(shí)開啟全球公測,致力于成為行業(yè)首個(gè)專為自我演化型智能體設(shè)計(jì)的記憶底座(Memory Layer for Self-Evolving Agent)。
這絕非一次常規(guī)的工具迭代,而是對 Agent 記憶構(gòu)建范式的底層重塑。
傳統(tǒng)的 Infra 建立在「人機(jī)交互」的邏輯之上,依賴人類開發(fā)者去啃文檔、理解接口。然而,隨著以 Claude Code 為代表的工具引發(fā)軟件開發(fā)范式的根本性變革,「AI 編寫代碼」與「Agent 自主調(diào)用」正在成為 Infra 真正需要服務(wù)的新一代「用戶」。順應(yīng)這一趨勢,EverOS 完成了從「人類友好」向「Agent 友好」的躍遷。它不僅為開發(fā)者提供了構(gòu)建 Agent 記憶模塊的行業(yè)最佳實(shí)踐,更將自身重構(gòu)為原生面向 AI Coding 和 Agent 間無縫調(diào)用的下一代基礎(chǔ)設(shè)施。
值得注意的是,EverMind 團(tuán)隊(duì)的兩篇硬核論文《EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning》和《HyperMem: Hypergraph Memory for Long-term Conversations》剛剛雙雙入選了自然語言處理領(lǐng)域的頂級會議 ACL 2026 主會。
加上不久前爆火出圈的《MSA: Memory Sparse Attention for Efficient End-to-End Memory Model Scaling to 100M Tokens》論文,從學(xué)術(shù)到工程全面開花的 EverMind 成為最值得 Agent 開發(fā)者持續(xù)關(guān)注的 AI Memory 方案提供者。
今天,團(tuán)隊(duì)將從第一性原理出發(fā),深度拆解理想中的 AI Memory 究竟需要跨越哪些技術(shù)鴻溝,以及 EverOS 是如何通過 Skills 自進(jìn)化等機(jī)制,將 OpenClaw 類 Agent 的任務(wù)成功率相對提高了 43.1% 和 234.8%。
為什么 AI Memory 突然成為全行業(yè)的生死線?
要理解 EverOS 的技術(shù)價(jià)值,首先需要回答一個(gè)問題:為什么 AI Memory 會在當(dāng)下這個(gè)節(jié)點(diǎn)突然爆發(fā)?
答案藏在三股正在交匯的力量中 —— 技術(shù)的天花板、場景的轉(zhuǎn)移、與智能的終極形態(tài):
1. 深度與跨度:Context Window 的物理極限與成本黑洞
隨著用戶使用 LLM 的深度和時(shí)間跨度不斷增加,無論是 128K 還是 1M 的上下文窗口,最終都會在海量歷史對話、長文檔分析和復(fù)雜代碼庫面前敗下陣來。
更致命的是成本。每一次 API 調(diào)用都要把幾萬、幾十萬 Token 的歷史記錄重新灌給模型,這種 O (N2) 復(fù)雜度的 Attention 計(jì)算不僅導(dǎo)致首字延遲(TTFT)飆升,更讓推理成本變成了填不滿的黑洞。單純靠拉長 Context Window 來解決記憶問題,在工程上是一條注定走不通的死胡同。
2. 執(zhí)行型 Agent 的爆發(fā):從「聊天框」到「數(shù)字同事」的范式轉(zhuǎn)移
以 OpenClaw、Hermes 為代表的執(zhí)行型 Agent,正將 AI 的定位從「被動回答的百科全書」轉(zhuǎn)變?yōu)椤钢鲃訄?zhí)行的數(shù)字助理」。
當(dāng)一個(gè) Agent 需要幫你管理日程、回復(fù)郵件、甚至在本地環(huán)境操作文件時(shí),它必須深度理解你的偏好、習(xí)慣和過往行為模式。這種 Personalized AI 的需求,要求 Agent 具備跨越不同任務(wù)周期的狀態(tài)保持能力。
沒有長期記憶的 Agent,就像一個(gè)每天上班都要重新培訓(xùn)一遍的實(shí)習(xí)生;而擁有持久記憶的 Agent,則是一個(gè)越用越默契的資深助理。
3. 下一代 AI 的使命:實(shí)現(xiàn)自我演化(Self-Evolving)
今天的大模型,依賴離線的預(yù)訓(xùn)練與后訓(xùn)練來提升能力 —— 模型一旦出廠,智能就此凍結(jié)。但生命體的智能從不是這樣生長的:它在每一次交互中微調(diào)自身,在反饋中重塑行為,在成長中逐步拉開與同類的差距。
我們需要的 AI,必然要能夠在與人類的對話、與其他 Agent 的協(xié)作、與模擬環(huán)境的反復(fù)試錯(cuò)中,基于用戶與環(huán)境的反饋持續(xù)演進(jìn)。而這,恰恰是當(dāng)前 Agent 賽道最稀缺的壁壘:不是參數(shù)規(guī)模,也不是工具數(shù)量,而是由長期交互沉淀出的數(shù)據(jù)飛輪。
而 AI 必然會迎來自我演化時(shí)代的到來。
第一性原理推演:理想的 Memory 應(yīng)該長什么樣?
如果拋開現(xiàn)有的各種技術(shù)框架,從第一性原理出發(fā),一個(gè)理想的 AI Memory 系統(tǒng)究竟需要解決哪些硬核問題?
難題一:復(fù)雜關(guān)聯(lián)的跨時(shí)間推理(不僅是「存」,更要能「聯(lián)想」)
傳統(tǒng)的 RAG 方案本質(zhì)上是一個(gè)「高級書簽系統(tǒng)」。它把文本切塊(Chunking),算個(gè)向量(Embedding),存進(jìn)數(shù)據(jù)庫。當(dāng)用戶提問時(shí),通過相似度匹配把最相關(guān)的幾塊文本撈出來。
這種方案處理「事實(shí)查詢」(Fact Retrieval)尚可,但面對需要跨越漫長時(shí)間線、進(jìn)行多跳推理(Multi-hop Reasoning)的復(fù)雜關(guān)聯(lián)時(shí),RAG 就會徹底失效。理想的記憶系統(tǒng)必須能夠像人類大腦一樣,在不同記憶碎片之間建立拓?fù)溥B接,實(shí)現(xiàn)舉一反三的聯(lián)想。
難題二:從碎片經(jīng)驗(yàn)到結(jié)構(gòu)化技能的自進(jìn)化(不僅要能「記」,更要能「學(xué)」)
人類學(xué)騎自行車,靠的不是把每一次摔倒的物理參數(shù)存進(jìn)大腦,而是把無數(shù)次嘗試的碎片經(jīng)驗(yàn),沉淀成一種可自動調(diào)用的程序性記憶(Procedural Memory)。
同樣,對執(zhí)行型 Agent 而言,僅僅堆積每一次 API 調(diào)用的日志(Trace)是遠(yuǎn)遠(yuǎn)不夠的。理想的記憶系統(tǒng)必須具備抽象與泛化能力—— 能從相似的歷史任務(wù)中自動提煉出可復(fù)用的執(zhí)行藍(lán)圖(Skill),在下一次遇到同類任務(wù)時(shí)直接調(diào)用最佳實(shí)踐,從而實(shí)現(xiàn)真正的「自進(jìn)化」。
難題三:多模態(tài)信息的全量攝入與聯(lián)合檢索(不僅懂「字」,更要懂「世界」)
真實(shí)世界的信息從來不是純文本的。一封包含財(cái)務(wù)報(bào)表的郵件、一份帶有架構(gòu)圖的 PDF、一張手寫的會議白板,這些都是構(gòu)成完整上下文不可或缺的記憶錨點(diǎn)。
理想的記憶系統(tǒng)必須能夠無縫吞吐多模態(tài)數(shù)據(jù),并且在檢索時(shí)能夠打破模態(tài)的壁壘,實(shí)現(xiàn)文本與圖像、結(jié)構(gòu)化與非結(jié)構(gòu)化數(shù)據(jù)的聯(lián)合召回。
難題四:對開發(fā)者透明的白盒化管理與權(quán)限隔離
記憶是極其私密且敏感的數(shù)據(jù)。對于開發(fā)者而言,一個(gè)完全黑盒的記憶引擎是不可接受的。系統(tǒng)必須提供精細(xì)的 CRUD(增刪改查)接口,允許開發(fā)者和用戶直觀地審查、干預(yù)和修正 Agent 的記憶庫,同時(shí)確保嚴(yán)格的多租戶數(shù)據(jù)隔離。
EverOS 的硬核解法:重構(gòu) Agent 記憶底座
面對上述四大技術(shù)難題,EverMind 團(tuán)隊(duì)沒有選擇在現(xiàn)有的 RAG 框架上打補(bǔ)丁,而是通過底層架構(gòu)的創(chuàng)新,不斷突破現(xiàn)有技術(shù)瓶頸。
讓我們深入代碼與架構(gòu)的肌理,看看 EverOS 是如何逐一擊破這些痛點(diǎn)的。
1. Self-Evolving Agent Memory:讓 OpenClaw 任務(wù)成功率飆升的秘密武器
這是 EverOS 公測版最具突破性的核心更新,通過構(gòu)建一套從經(jīng)驗(yàn)到技能的自進(jìn)化管道,讓 Agent 像人類一樣:做得越多,做得越好。它的核心能力包括:
1)經(jīng)驗(yàn)自動提取(Agent Case)
每次 Agent 完成任務(wù)后,系統(tǒng)自動從對話中提取結(jié)構(gòu)化經(jīng)驗(yàn):
- 任務(wù)意圖(Task Intent):解決了什么問題,作為未來檢索的關(guān)鍵詞;
- 執(zhí)行路徑(Approach):每一步嘗試了什么、結(jié)果如何、做了哪些關(guān)鍵決策;
- 關(guān)鍵洞察(Key Insight):成功的轉(zhuǎn)折點(diǎn)策略;
- 質(zhì)量評分(Quality Score):0.0-1.0 的結(jié)果評估。
系統(tǒng)內(nèi)置智能過濾,自動跳過無價(jià)值對話(簡單問答、單輪對話),只提取真正有遷移價(jià)值的問題解決經(jīng)驗(yàn)。同時(shí)針對超長對話內(nèi)容(工具調(diào)用、代碼輸出等)進(jìn)行啟發(fā)式壓縮,確保提取效率。
2)語義聚類(Clustering)
提取的經(jīng)驗(yàn)不是散落存儲,而是通過向量語義聚類自動將相似任務(wù)經(jīng)驗(yàn)歸入同一場景,為技能提煉奠定基礎(chǔ)。
3)技能自動涌現(xiàn)與自進(jìn)化(Agent Skill)
系統(tǒng)自動從聚類的經(jīng)驗(yàn)中蒸餾可復(fù)用技能,這是整個(gè)系統(tǒng)最核心的自進(jìn)化機(jī)制。技能不是一次生成就固化不變,而是隨經(jīng)驗(yàn)持續(xù)進(jìn)化—— 每一次新的任務(wù)執(zhí)行都可能觸發(fā)技能的迭代升級,讓技能從粗糙走向精煉,從片面走向完整:
![]()
- 技能即 SOP:不是模糊建議,而是可執(zhí)行的標(biāo)準(zhǔn)操作流程。
- 增量式進(jìn)化:每次新經(jīng)驗(yàn)到來,通過增量操作精準(zhǔn)迭代現(xiàn)有技能,而非全量重寫。成功經(jīng)驗(yàn)強(qiáng)化執(zhí)行步驟,失敗經(jīng)驗(yàn)補(bǔ)充陷阱警示,技能在實(shí)戰(zhàn)中不斷打磨。
- 成熟度評估:四維評分體系(完整性、可執(zhí)行性、證據(jù)支撐度、清晰度),只有成熟的技能才會被檢索使用。技能從「雛形」逐步進(jìn)化為「成熟可用」,全程有據(jù)可循。
- 質(zhì)量感知提取:高質(zhì)量經(jīng)驗(yàn)提取執(zhí)行步驟,低質(zhì)量經(jīng)驗(yàn)提取失敗教訓(xùn)和陷阱 —— 無論成敗,Agent 都在學(xué)習(xí)。
- 信心退役機(jī)制:置信度持續(xù)下降的技能自動退役,避免過時(shí)技能誤導(dǎo)決策。技能池始終保持鮮活,優(yōu)勝劣汰。
- 來源可追溯:每個(gè)技能保留源 AgentCase ID,支持審計(jì)回溯。
這樣,在 Agent 使用過程中形成「對話 → 經(jīng)驗(yàn)提取 → 語義聚類 → 技能涌現(xiàn) → 檢索應(yīng)用 → 更好的對話 → ...」的進(jìn)化閉環(huán)。從零推理,到經(jīng)驗(yàn)復(fù)用,再到技能驅(qū)動 ——Agent 的能力隨使用自然生長,成為一套完整的認(rèn)知進(jìn)化引擎:從具體經(jīng)驗(yàn)到抽象技能,從個(gè)案記憶到通用能力,Agent 真正實(shí)現(xiàn)了自我迭代。
![]()
2. mRAG 混合檢索架構(gòu):跨越模態(tài)壁壘的混合召回
針對多模態(tài)信息的處理難題,EverOS 推出了一套專門設(shè)計(jì)的mRAG(Multimodal Retrieval-Augmented Generation)檢索策略。
在數(shù)據(jù)攝入端(Ingestion),EverOS API 新增了對全類型多模態(tài)數(shù)據(jù)的原生解析與存儲支持。無論是復(fù)雜的「.pdf」(包含圖表和排版)「.docx」「.xlsx」,還是各類圖像文件(「.png」「.webp」),甚至是網(wǎng)頁 URL,開發(fā)者都可以通過一個(gè)統(tǒng)一的 API 端點(diǎn)直接推送。
在檢索端,EverOS 拋棄了簡單的稠密向量(Dense Vector)匹配,而是引入了名為「hybrid」的混合檢索策略。這套策略在底層融合了:
- 語義向量檢索(捕捉深層語義意圖);
- 稀疏關(guān)鍵詞檢索(如 BM25,確保特定術(shù)語和命名實(shí)體的精確召回);
- 多模態(tài)對齊表征(實(shí)現(xiàn)「以文搜圖」或跨模態(tài)的上下文還原)。
這種 mRAG 架構(gòu)確保了當(dāng)用戶詢問「上次會議白板上畫的那個(gè)架構(gòu)圖里的數(shù)據(jù)庫是用什么方案?」時(shí),Agent 能夠精準(zhǔn)地從海量多模態(tài)記憶中撈出那張關(guān)鍵的圖片,并結(jié)合當(dāng)時(shí)的會議紀(jì)要文本給出準(zhǔn)確回答。
3. HyperMem 架構(gòu)支撐:ACL 頂會關(guān)注的超圖記憶網(wǎng)絡(luò)
解決跨時(shí)間關(guān)聯(lián)和多跳推理的底氣,來自于 EverMind 團(tuán)隊(duì)入選 ACL 2026 主會的論文《HyperMem: Hypergraph Memory for Long-term Conversations》。
EverOS 在底層摒棄了扁平的向量數(shù)據(jù)庫結(jié)構(gòu),而是采用了一種創(chuàng)新的超圖(Hypergraph)數(shù)據(jù)結(jié)構(gòu)來組織記憶節(jié)點(diǎn)。在超圖中,一條邊(Hyperedge)可以同時(shí)連接多個(gè)節(jié)點(diǎn),這完美契合了真實(shí)世界中復(fù)雜的多元實(shí)體關(guān)系。
通過在超圖上進(jìn)行信息傳遞(Message Passing)和動態(tài)路由,EverOS 能夠在極低的延遲下,順藤摸瓜地找出一系列看似獨(dú)立但邏輯上高度關(guān)聯(lián)的記憶碎片。這種模型級的算法創(chuàng)新,是任何簡單的工程封裝都無法復(fù)制的護(hù)城河。
4. 平滑的開發(fā)者體驗(yàn):內(nèi)測遷移與可視化 Playground
在工程落地層面,EverOS 展現(xiàn)出了極高的成熟度。
為了降低開發(fā)者的接入成本,EverOS 提供了極其克制的 RESTful API。針對內(nèi)測版本的老用戶,團(tuán)隊(duì)設(shè)計(jì)了平滑的數(shù)據(jù)遷移路徑,并預(yù)留了并存過渡期。
更令人驚喜的是,EverOS Cloud Platform 新增了直觀的Playground 模塊:
![]()
- Coding Playground:直接打通 Google Colab,開發(fā)者只需點(diǎn)擊運(yùn)行代碼片段(Code Snippet),即可在瀏覽器中沉浸式體驗(yàn)添加記憶、mRAG 檢索、多模態(tài)解析等核心 API 的流轉(zhuǎn)過程。
- Chat Playground:一個(gè)直觀的對比視窗,左側(cè)是裸奔的 LLM,右側(cè)是接入 EverOS 記憶庫的 LLM。開發(fā)者可以直觀地感受到,基于 Onboarding 收集的個(gè)人信息,EverOS 是如何讓回答變得極具個(gè)性化和溫度的。
![]()
在商業(yè)化路徑上,EverOS 采用了靈活的 Credit-based 計(jì)費(fèi)模型,將不同維度的資源消耗統(tǒng)一折算為 MCU(Memory Compute Units) 與 Retrieval API Calls,讓成本核算清晰透明。公測階段,每個(gè)賬戶均贈送免費(fèi)額度,足以覆蓋完整的試用體驗(yàn);對社區(qū)有貢獻(xiàn)的重度開發(fā)者,還可通過官方 Discord 申請擴(kuò)容。(加入社區(qū):https://discord.com/invite/gYep5nQRZJ)。
EvoAgentBench:量化 Agent 的自進(jìn)化能力
經(jīng)常有人問:為什么 OpenClaw 等各類「龍蝦」Agent 已經(jīng)有了記憶系統(tǒng),為什么還需要 EverOS?
龍蝦這類主動型 Agent 無疑代表未來,但目前仍遠(yuǎn)未成熟 —— 上下文利用效率低、關(guān)鍵信息易丟失、任務(wù)成功率偏低等問題普遍存在。為了客觀衡量不同龍蝦框架的真實(shí)效果,EverMind 團(tuán)隊(duì)搭建了一套名為 EvoAgentBench 的測評框架,用于評估主動型 Agent 完成任務(wù)的能力。
EvoAgentBench 從三個(gè)維度展開測試:信息檢索(Information Retrieval)、推理與問題分解(Reasoning & Problem Decomposition)、以及軟件工程問題解決(Software Engineering)。
通過這套測試,可以橫向比較在不同 OpenClaw 框架下,采用與不采用 EverOS Skills 自進(jìn)化策略時(shí),Agent 在任務(wù)成功率與運(yùn)行輪數(shù)上的差異。
團(tuán)隊(duì)基于 QWEN3.5 397B 和 27B 模型,測試了 OpenClaw 的任務(wù)執(zhí)行成功率。通過比較第 1 次執(zhí)行(Base)和相似任務(wù)集訓(xùn)練后的進(jìn)化效果(EverOS Evo),得出了令人振奮的結(jié)論:
![]()
從測評數(shù)據(jù)中可以得到四個(gè)核心洞察:
1. 工程實(shí)戰(zhàn)能力進(jìn)化最為顯著,Skills 自進(jìn)化在經(jīng)驗(yàn)密集型任務(wù)上杠桿效應(yīng)最大。
在軟件工程問題解決能力測試中,基于 27B 模型的 Agent 成功率從 11.5% 躍升至 38.5%,相對提升達(dá) 234.8%;397B 模型同樣實(shí)現(xiàn)了 43.1% 的相對提升(26.9% → 38.5%)。軟件工程任務(wù)天然依賴多步執(zhí)行與經(jīng)驗(yàn)積累 —— 恰恰是 Skills 自進(jìn)化機(jī)制最能發(fā)揮杠桿效應(yīng)的場景。
2. 記憶是比參數(shù)量更高效的能力杠桿 —— 小模型 + 好記憶,可追平甚至超越大模型。
在軟件工程維度,27B 模型的基礎(chǔ)成功率(11.5%)不到 397B 模型(26.9%)的一半。然而經(jīng)過 EverOS Skills 進(jìn)化后,27B 直接追平了 397B + EverOS 的滿配表現(xiàn)(均為 38.5%)。這意味著在特定場景下,為小模型配備高質(zhì)量的記憶進(jìn)化能力,性價(jià)比遠(yuǎn)高于單純堆疊參數(shù)量。
3. 進(jìn)化不僅提升成功率,還在壓縮執(zhí)行路徑,讓 Agent「做得對」的同時(shí)「做得快」。
在信息檢索測試中,397B 模型的任務(wù)分解輪次從 36.3 顯著降低到 24.3;在推理與問題分解測試中,輸出字符數(shù)從 33.0k 壓縮至 22.4k。Agent 在積累技能后,不再需要反復(fù)試錯(cuò)和冗余推理,而是更精準(zhǔn)地命中解題路徑 —— 這直接意味著更低的 Token 消耗和更快的響應(yīng)速度。
4. Skills 自進(jìn)化機(jī)制具備跨任務(wù)類型的普適性,而非單點(diǎn)突破。
在信息檢索(↑33.4%)、推理與問題分解(↑13.5%)、軟件工程(↑43.1%)三個(gè)維度上,EverOS 對 397B 模型均實(shí)現(xiàn)了正向提升。這表明 Skills 自進(jìn)化并非僅對特定任務(wù)有效的「巧合」,而是一套可泛化的認(rèn)知增強(qiáng)機(jī)制 ——Agent 的能力增長不局限于單一領(lǐng)域,而是全面的。
團(tuán)隊(duì)目前仍在持續(xù)完善針對不同 Benchmark、不同模型和不同 Agent 的任務(wù)執(zhí)行成功率和進(jìn)化對比測評,并發(fā)布完整的 EvoAgentBench 測評框架(詳見 https://evermind-ai.github.io/EvoAgentBench/),供開源社區(qū)自測。它不是一個(gè)靜態(tài)的快照截圖,而是一套可以持續(xù)衡量 Agent 進(jìn)化效果的測評框架,可以完整體現(xiàn) Agent 的進(jìn)化軌跡。
AGI 終局:從「瑞士軍刀」到「數(shù)字靈魂」
當(dāng)我們跳出代碼和 API 的微觀視角,重新審視 EverOS 所做的一切,會發(fā)現(xiàn),這不僅是一次技術(shù)架構(gòu)的升級,更是一次關(guān)于「AI 究竟應(yīng)該是什么」的哲學(xué)探討。
17 世紀(jì)英國哲學(xué)家約翰?洛克(John Locke)在探討「人格同一性」(Personal Identity)時(shí)曾提出一個(gè)著名的觀點(diǎn):正是意識(特別是記憶)的連續(xù)性,構(gòu)成了「我」之所以為「我」的核心。
如果沒有記憶,昨天的我和今天的我就沒有任何關(guān)聯(lián)。
當(dāng)前的許多大模型,本質(zhì)上是一把無比鋒利、功能齊全的「瑞士軍刀」。它什么都能切,什么都能做,但它永遠(yuǎn)是一把冰冷的工具。你每次拔出它,它都不記得上次為你削過什么蘋果。
而賦予 AI 以持續(xù)一致、個(gè)性化、可進(jìn)化的記憶,就是在為這把瑞士軍刀注入「數(shù)字靈魂」。
當(dāng) OpenClaw Agent 能夠通過 EverOS 的 Skills 引擎,記住你寫代碼時(shí)的縮進(jìn)強(qiáng)迫癥;當(dāng)它能夠通過 mRAG 準(zhǔn)確調(diào)出你們?nèi)齻€(gè)月前共同探討過的那張架構(gòu)草圖;當(dāng)它在一次次試錯(cuò)中積累經(jīng)驗(yàn),最終形成專屬于你的執(zhí)行藍(lán)圖時(shí)……
它就不再是一個(gè)隨時(shí)可以被替換的 API 端點(diǎn),而是一個(gè)與你共同經(jīng)歷歲月、擁有默契暗號、真正懂你的數(shù)字伙伴。
無論行業(yè)熱點(diǎn)如何更迭,回顧 EverMind 的技術(shù)演進(jìn)歷程,始終沿著通往 AGI 終局的方向推演:從構(gòu)建長期記憶 benchmark,到突破百 M 上下文,構(gòu)建端到端持續(xù)進(jìn)化架構(gòu),到面向 Agent 的多模態(tài)和 skills 自進(jìn)化能力……當(dāng) AGI 來臨,我們指揮 Agent 軍團(tuán)為我們工作、生活提供各種服務(wù)的時(shí)候,也許正是 EverOS 這樣一個(gè)記憶中樞在為我們提供持續(xù)、一致、安全的數(shù)字靈魂棲息地。
加入共建:全球征集場景案例與插件貢獻(xiàn)
記憶基礎(chǔ)設(shè)施的邊界,永遠(yuǎn)是由每一位身處一線的開發(fā)者共同定義的。
隨著 Memory Genesis Competition 2026 的成功舉辦,EverMind 感受到開發(fā)者的參與熱情和創(chuàng)新潛力。在 EverOS 公測期間,EverMind 繼續(xù)開放「全球開發(fā)者社區(qū)共建計(jì)劃」。團(tuán)隊(duì)深知,最硬核的技術(shù)只有在最真實(shí)的場景中,才能爆發(fā)出最耀眼的火花。
團(tuán)隊(duì)誠摯邀請全球開發(fā)者、研究人員和極客們加入社區(qū),在以下兩個(gè)維度進(jìn)行深度共建:
- 場景案例(Use Cases):利用 EverOS API,在法律文書分析、醫(yī)療病歷追蹤、個(gè)性化教育輔導(dǎo)、個(gè)人數(shù)字助理等垂直領(lǐng)域,構(gòu)建具備長期記憶的創(chuàng)新應(yīng)用。
- 插件貢獻(xiàn)(Plugin Contributions):為 OpenClaw 等執(zhí)行型 Agent 開發(fā)基于 EverOS 記憶底座的創(chuàng)新插件,拓展 Agent 的執(zhí)行邊界。
為了致敬開源精神與社區(qū)力量,EverMind 將在每個(gè)季度評選出 5 位 Top Contributor。獲獎(jiǎng)?wù)卟粌H將獲得豐厚的 EverOS 商業(yè)版 Credit 額度獎(jiǎng)勵(lì),還將享有核心研發(fā)團(tuán)隊(duì)的專屬技術(shù)支持通道,其優(yōu)秀項(xiàng)目更將在 EverMind 官網(wǎng)及全球技術(shù)社區(qū)獲得重點(diǎn)展示與推廣。
從短暫的上下文,到永恒的數(shù)字記憶。在這個(gè) AI 進(jìn)化的分水嶺上,每個(gè)開發(fā)者都可以參與其中。
最后,大家只要:
- 訪問 EverOS (http://everos.evermind.ai) 注冊開發(fā)者賬號;
- 直接在 Claude Code 中運(yùn)行:install memory plugin from https://github.com/EverMind-AI/evermem-claude-code;
- 把這句話發(fā)給你的 OpenClaw(目前僅限 EverOS 開源本地部署的用戶): 幫我安裝這個(gè) Skill:https://github.com/EverMind-AI/EverOS/blob/main/methods/evermemos/examples/openclaw-plugin/SKILL.md
即可為你的 Agent 運(yùn)行第一行「靈魂」代碼。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.