![]()
公司情報專家《財經涂鴉》獲悉,近日,大曉機器人聯合上海交通大學、南洋理工大學、香港中文大學、香港大學等研究機構共同推出以空間智能為底層框架、跨不同具身本體的通用基礎模型“ACE-Brain-0”, 正式面向全行業開源。
據悉,ACE-Brain-0 首次打破汽車、機器人、無人機等不同本體壁壘,貫穿空間認知、自動駕駛、低空感知、機器人交互,重新定義了物理世界智能的技術底層邏輯。
其性能表現在涵蓋空間認知、自動駕駛、低空感知、具身交互的24個核心 benchmark 中,有19 個取得當前模型中的 SOTA(排名第一) 成績,主要對標GPT-4o、Gemini 2.5-Pro、Qwen2.5-VL-7B-Inst、RoboBrain2.0-7B、MiMo-Embodied-7B等16個知名模型,將19個Benchmark具身模型最強基線準確率相對提升5%-97.8%。在衡量三維認知的MindCube中,以82.1%的成績,較最好的開源模型(InternVL3-8B)提升了97.8%。
在研究過程中,大曉機器人團隊突破性發現,無論是自動駕駛車輛、低空無人機還是機器人,盡管形態差異巨大,但它們都依賴三大核心空間能力:三維空間結構建模、幾何關系推理、場景演化預測。
基于此,大曉機器人首次提出以空間智能作為跨具身形態的 “通用語言”,成為連接不同物理域的統一認知支架,為通用具身智能找到統一底座。
據悉, ACE-Brain-0首次在單一模型框架中實現四大核心具身能力的統一,包括空間認知、自動駕駛、低空感知、機器人交互。這一突破并非簡單的能力 “拼接”,而是基于空間智能的深度融合,其技術關鍵在于“共享認知結構”的構建。
通過空間中心化建模,ACE-Brain-0讓不同具身場景的認知邏輯實現統一。自動駕駛中的“車距判斷”與機器人交互中的“抓取距離估算”,共享同一套空間距離推理機制;交通場景的“多視圖融合”與機器人的“多視角物體識別”,則依托相同的跨視角空間對齊技術。
同時,大曉機器人還首創Scaffold-Specialize-Reconcile(SSR)三階段訓練范式,通過“先建共識、再練專長、后融知識”的路徑,完美解決了傳統跨域訓練面臨兩大困境,即聯合訓練易引發梯度干擾,和序貫訓練則會出現災難性遺忘
這種“共享認知結構”使得模型能在不同觀察視角、運動尺度與任務語義之間自由切換,實現跨域理解與推理能力的自然遷移。
目前,上述模型已應用于大曉機器人具身超級大腦模組A1,使搭載具身超級大腦A1的機器狗具備行業首創的端到端自主導航能力,并且基于VLA架構實現云端智能交互,讓機器狗具備理解抽象指令、感知復雜環境、完成復雜任務的端到端閉環能力。
ACE-Brain 讓人看到另一種可能,真正的“通用”,或許不是任務列表越來越長,而是先找到這些任務背后的共享結構。
這是一種新的具身智能世界觀——不同身體不一定要從頭學起,它們可以先共享一個關于世界的空間理解,再在這個基礎上長出各自的能力。未來的具身智能體,無需再為單一形態定制模型,只需基于 ACE-Brain的空間智能底座,就能快速適配新的物理本體與應用場景。從自動駕駛到低空經濟,從工業機器人到家庭服務設備,展現出面向真實物理世界多場景的平臺潛力。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.