相比于過去大家對于Mobileye芯片、輔助駕駛系統的關注,接下來,或許需要從更為廣闊的視角,來看待這家科技公司。
因為,Mobileye開啟了自己的新業務線——具身智能。
在今年1月CES期間,Mobileye 宣布已就收購AI(人工智能)人形機器人公司Mentee Robotics(Mentee)達成最終協議,收購對價總額約為9億美元。
![]()
Mobileye創始人、總裁兼首席執行官Amnon Shashua教授在CES現場接受包括TheCars在內的媒體采訪時表示,人形機器人與駕駛自動化領域巨大的協同效應顯而易見,Mobileye希望將業務全面覆蓋物理AI領域,就必須邁向人形機器人領域,這也將為Mobileye創造一個新的增長引擎。
2028年將啟動人形機器人部署
駕駛自動化和機器人都是AI應用于物理世界的兩大重要落腳點。在強調收購能夠帶來的協同效應的同時,Shashua教授也指出了這兩個領域的區別:汽車在相對結構化環境中運行,例如道路場景是相對結構化的,而機器人應用所面向的最大市場是非結構化環境。
想象一下在家庭環境中,人形機器人面臨的任務并非有限的集合,也就不可能一出場就設置為具備應對所有家庭各式各樣場景不同任務的能力。
因此,我們需要具有持續學習能力的機器人。
傳統業界熟知的Sim2Real(仿真到現實)是在模擬器中進行訓練,然后再部署到現實環境中。但因為模擬器并不能完全呈現機器人的真實狀態,無法呈現的事物也不少。
而Mentee在此基礎上更進一步開發了“Real2Sim2Real”,本質上是觀察人類執行任務的過程。該技術采用基礎模型,將其遷移至模擬器進行訓練,隨后在模擬環境中學習,最后將所學知識自動遷移回機器人——整個過程完全自動化。
這種訓練在進入像家庭場景這樣的非結構化環境時至關重要,無需頭顯、無需VR設備、無需體感服,人形機器人通過觀察人類少量示范如何執行任務,就能快速學習新技能。
落地部署方面,Mobileye的策略是:從結構化環境,到非結構化環境,階段性推進。先從結構化環境入手,如倉儲配送中心、裝配廠等場所,其中任務定義明確且數量有限;隨后進入非結構化環境,即家庭使用場景。
![]()
時間線上,預計結構化環境的部署將在2028年實現,而非結構化環境下的部署則會晚幾年。
環繞式ADAS再接大單
與此同時,Mobileye在駕駛自動化領域的業務擴展,正在如火如荼地開展。
在CES期間,Mobileye正式官宣:一家美國頭部車企已選定其基于單EyeQ?6H芯片的新一代組合輔助駕駛系統——環繞式ADAS?,作為其旗下數百萬輛汽車的標配方案。
![]()
這一合作的預計訂單量有900萬套,再結合2025年3月官宣的大眾汽車集團訂單,Mobileye預計,其環繞式ADAS方案未來預期交付量目前已突破1900萬套。
Robotaxi規模化,必須減少遠程操作員
除了L2層面連續拿單,在更高等級的駕駛自動化方面,Mobileye與大眾汽車集團、MOIA合作的無人駕駛出租車(Robotaxi)項目也在按計劃推進。
Shashua教授表示:“目前有約100輛ID. Buzz在多地開展路測,包括德國的漢堡和慕尼黑,挪威的奧斯陸,美國加州洛杉磯、德克薩斯州奧斯汀、以及佛羅里達州部分地區。”他還提到,預計今年第三季度會在一座城市率先實現“去安全員”行駛。
Shashua教授直言,Robotaxi要想真正規模化,仍有一個問題懸而未決,卻鮮少被真正討論,人們甚至還會刻意回避,這就是遠程操作員的存在。
Mobileye的解決方案:VLSA(視覺-語言-語義-動作)。這是一種基于視覺-語言的深層場景語義處理模型,同時部署在車端和云端,旨在逐步取代遠程操作員。
VLSA的作用類似于在復雜駕駛場景中陪伴新手駕駛員的資深駕駛員,能提醒你注意某些事項,但他不直接控制油門、剎車和方向盤;與之類似地,VLSA模型不直接控制車輛或輸出行駛軌跡,而是提供結構化的語義指導,饋入規劃系統。可以把它理解為經過整個互聯網訓練的模型,具備出色的推理能力,對場景的理解遠勝于常規的基于安全相關數據流訓練的模型。這項技術的應用將從Robotaxi起步。
![]()
而對于消費級高等級駕駛自動化,其技術演進路徑,從L3級到L4級的跨越,功能上具體就是“駕駛員視覺脫離”(Eyes-off)到“駕駛員注意力脫離(Mind-off)”的能力躍升。比如,Mobileye與奧迪合作的L3級有條件自動駕駛量產項目:車輛在高速公路上能以130公里/小時運行,系統激活期間駕駛員可以“視覺脫離”,但仍需在系統要求時介入。而“駕駛員注意力脫離”意味著當遇到各種復雜情況時,無需駕駛員介入,技術就能自行處理。這正是VLSA的用武之地。
也就是說,VLSA對消費級高等級駕駛自動化的意義在于實現從“駕駛員視覺脫離”到“駕駛員注意力脫離”的轉變,這也是本十年末有望實現的目標。
關于中國市場、技術趨勢的洞察分享
中國輔助駕駛市場一直以來技術密集度相當高,在這里想要長期立足,無論是老牌勁旅還是后起之秀,都必須鉚足勁兒。Shashua教授在采訪中透露,Mobileye在2025年的中國市場芯片供貨量較2024年實現了穩步增長,此前2024年較2023年也呈現了增長態勢。“在技術的價格與性能表現方面,我們達到了理想的平衡點。”
在國內市場,對于輔助駕駛方案的剛需,可以基本分成兩派,大算力派和傳感器冗余派。當被問及如何看待芯片算力和硬件架構的重要時,Shashua教授將市場比喻成了一種三明治結構,一面是輔助駕駛系統,另一面是Robotaxi。
在Shashua教授看來,一方面,在輔助駕駛的演進路徑中,環繞式ADAS系統是重要的存在。其成本足夠低廉,僅需幾百美元,且價值主張相對較高。
另一方面,關于Robotaxi,Shashua教授肯定了冗余的重要性,但同時指出,并不需要將傳感器成本推高至數萬美元,而是可以采用一圈攝像頭和一圈成像雷達組合的方案。“相信在本十年末(2030年前),這套傳感器系統最終將成為Robotaxi的傳感器配置,將完全無需激光雷達輔助。“
Shashua教授指出,高性能芯片應能滿足兩個方面:一是高頻控制,例如每秒10幀的處理速度,我們稱之為快速路徑。如此一來,必須確保永遠不會發生碰撞,確保安全。
另一種場景理解路徑,無需高頻率運行,也是高性能計算的用武之地。這條路徑的目的是淘汰遠程操作員。沒錯,就是前文中提到的VLSA。它可分為三類:第一類是搭載于車內的視覺語言模型;第二類是部署在云端的視覺語言模型;第三類則是規模極其龐大的語言模型,同樣部署在云端,但采用按需調用的模式。
車載視覺語言模型能提供初步響應。系統以每秒一到兩幀的速度處理畫面,試圖理解復雜場景——比如是否有警察走過來,車道是否被其他車輛堵塞,或者是否發生了異常情況。
隨后,每秒一幀的數據會被傳送至云端更大的語言模型,該模型具備更強的復雜場景理解能力。
當車輛遇到無法理解的狀況時,若車載視覺語言模型無法提供滿意答案且云端視覺語言模型也無法解決問題,此時便會向云端超級視覺語言模型發起求助。經計算發現,這其實不會給汽車增加太多成本。Shashua教授提到,經過測算,若將700億參數的網絡部署在云端(因其規模過大無法集成到芯片中),每輛Robotaxi的成本僅需增加1000美元。而與Robotaxi的價值主張(即每年削減用以雇傭司機的數萬美元開支)相比,1000美元的成本微不足道。
隨著“駕駛自動化+具身智能”雙技術引擎逐步成型,Mobileye正在以更清晰的節奏推進其在物理AI領域的布局。對于這家公司而言,這兩個應用分支的技術有望在相互促進、相互強化的過程中,共同推高整體業務增長曲線。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.