![]()
小米汽車昨天扔了個技術包,把輔助駕駛的認知能力又往上拱了一截。
新一代 SU7 全系上了 Xiaomi XLA 認知大模型。名字聽著玄,拆開看就三樣東西:激光雷達、11 個攝像頭、4D 毫米波雷達,配上 700TOPS 的 Thor 芯片——這是硬件底子。真正的戲碼在軟件層:系統開始用"潛空間推理"做決策,簡單說就是機器不再先把想法翻譯成人類語言,直接在它自己的高維世界里推演,速度更快,延遲更低。
但小米留了個后門。怕黑盒問題扯皮,XLA 保留了可解釋性——需要復盤的時候,能把機器的"腦內活動"解碼成人話。這有點像你讓實習生快速決策,同時要求他事后寫份說明,萬一出事能追責。
關于路線之爭,小米的態度是"我全都要"。VLA 和世界模型不打架,XLA 架構里兩者并存,外加強化學習調味。新一代 SU7 交付即搭載,首批功能包括語音控車、商場地庫的車位級領航。
老車主沒被遺忘。小米官宣,初代 SU7 Pro / Max / Ultra、YU7 全系后續 OTA 推送。買早了的用戶,硬件算力夠,等軟件上車就行。
有個細節值得玩味:小米在新聞稿里特意提了"機器人物理 AI 交互數據"的融合。人形機器人和汽車共享同一套認知架構,這可能是比輔助駕駛本身更大的伏筆。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.