![]()
智東西
作者 ZeR0
編輯 漠影
智東西3月24日報道,上周英偉達GTC期間,智東西在圣何塞深度體驗乘坐了一輛沒有激光雷達、沒有高精地圖的L2++級自動駕駛汽車,跑了11英里,將近50分鐘,全程沒有被駕駛位上的人類安全員接管一次。
![]()
▲試乘車
此次體驗的,便是前不久英偉達創始人兼CEO黃仁勛、英偉達全球副總裁吳新宙在舊金山體驗的同款輔助駕駛汽車方案——汽車是梅賽德斯-奔馳CLA,搭載基于NVIDIA DRIVE Hyperion硬件平臺的Alpamayo端到端輔助駕駛大模型。
![]()
▲黃仁勛和吳新宙試乘輔助駕駛汽車
借助英偉達深度學習模型,Hyperion架構可通過擴展功能實現增強型L2級輔助駕駛功能,包括在復雜城市環境中實現點到點城市領航輔助,使汽車自主完成整個行駛過程。
我的試乘路線是從圣何塞Signia酒店附近上車,途徑日本城、Willow Glen社區,最終繞回出發點。這條路線經專門設計,盡可能多地展示不同路況,涉及信控路口、四路停車標志、施工路段等復雜場景。
在圣何塞街道上兜風近50分鐘,我的總體感覺歸納為一個字——順。
試乘過程中,汽車根據實際路況、紅綠燈做出車道選擇、轉彎、跟隨、停車等行為,并在識別行人后主動讓行。途中遇到的幾個插曲,都被輔助駕駛系統應對自如。
![]()
剛啟程沒多久,一輛車從我們前方插進來,堵了半條車道,而前方是雙黃線,不能壓線超車。這時車載系統沒有強行繞行,也沒有亂打方向,而是減速等待,做出了像人類司機一樣正確的判斷。
![]()
遇到信號燈沒工作、減速帶等情況,汽車會謹慎地主動減速,通過后恢復正常速度。
等開到日本城附近時,前方有一位老太太推著一堆箱子從路左側向右慢慢橫穿。
![]()
還有當我們在一個路口準備右轉時,一位行人邊過馬路邊聚精會神打電話。
![]()
遇到這兩種場景,汽車都非常自然地減速停車,禮讓行人。
這些“順”的背后,藏著一些很有意思的技術細節。
一、無激光雷達、無高精地圖,一顆芯片支撐全部算力
這輛奔馳CLA搭載的英偉達的L2++輔助駕駛方案沒有使用激光雷達,主要采用攝像頭和毫米波雷達等傳感器,也沒有高精地圖,只使用來自導航模塊的普通地圖。
因此,這套方案非常經濟高效,幾乎可應用于各種汽車,也讓軟件具備極高的跨地域可擴展性。
在我們乘坐的汽車中,NVIDIA DRIVE Hyperion平臺包括一個DRIVE AGX Orin SoC芯片、10顆攝像頭、5顆毫米波雷達和12顆超聲波傳感器。
10個攝像頭包括2顆前向攝像頭、2顆側向攝像頭、2顆側后向攝像頭和4顆魚眼攝像頭。這些攝像頭能夠閱讀交通標志和車道標志,提供周遭廣泛視角和能見度,實現精確控制、安心駕駛。
![]()
5顆毫米波雷達包括1顆中程雷達和4顆角雷達,能探測其他行人、車輛的距離和速度,監測附近的交通和盲點。
![]()
超聲波傳感器可探測附近的障礙物,以支持平穩、自信的低速操作。
所有計算任務都運行在單顆Orin芯片上。這一套硬件配置,支撐起了整個L2++級自動駕駛功能。英偉達正與更多OEM合作伙伴推進量產落地,計劃今年覆蓋美國全境,明年覆蓋歐洲、日本和韓國。
DRIVE Hyperion硬件架構可擴展到L4級自動駕駛。
這次試乘,我體驗的是DRIVE Hyperion 8架構。而比亞迪、吉利、日產等已經在開發基于DRIVE Hyperion 10架構的新一代L4自動駕駛汽車項目。
五十鈴和TIER IV采用DRIVE Hyperion里的DRIVE AGX Thor SoC芯片,合作開發L4級自動駕駛巴士。Uber、Bolt、Grab、Lyft等移動出行服務商均在基于DRIVE Hyperion擴展自動駕駛出租車規模。
梅賽德斯-奔馳也在開發一款基于新S級的自動駕駛出租車,將采用DRIVE Hyperion和全棧AV L4軟件。
![]()
▲NVIDIA GTC大會上展出的NVIDIA DRIVE AGX Thor開發者套件
另一個值得關注的點是,不用高精地圖會帶來一大挑戰:如何理解信號燈與車道的關聯關系?
一個十字路口有多條車道、多個信號燈,怎么判斷我的車道對應哪個燈?這在有高精地圖的系統里,是預先標注好的。
而英偉達通過在軟件棧中進行大量創新,使汽車在行駛過程中實時完成判斷,在線創建全球高精地圖,最終實時創建所有車道線、連接方式和行駛方案。
做到這一點,離不開先進的模型推理能力。
二、推理模型:給輔助駕駛決策注入像人一樣的思維
英偉達認為,推理能力是輔助駕駛的下一個前沿。
傳統輔助駕駛架構將感知與規劃分離開來,這在面臨突發或異常狀況時,往往會限制其系統擴展性。解決這些長尾極端事件,需要具備安全推理因果關系能力的模型。
對此,英偉達開發Alpamayo生態系統,以加速安全、基于推理的自動駕駛汽車開發。
Alpamayo系列包括具備決策推理能力的AI模型、用于測試決策的閉環仿真工具AlpaSim與物理AI自動駕駛數據集。
![]()
其中, Alpamayo 1是該系列的首個版本,是一款開放VLA(視覺-語言-動作)推理模型,專為應對輔助駕駛長尾場景挑戰而設計,基于100億參數架構,集成了視覺感知、語言理解和動作生成能力,通過視頻輸入生成行駛軌跡,并通過推理來解釋自身的決策。
![]()
Alpamayo輔助駕駛堆棧的駕駛方式非常接近人類。借助這一模型,汽車會實時感知周邊環境,在后臺持續推理,能夠更準確地感知環境、解讀環境和預測風險,推演罕見或全新場景,靈活應對復雜多變的路況,并能解釋它在決定時的推理思路。
比如前方雙排停車的一輛車開始倒車,車載系統不會試圖從旁邊硬擠過去,而是在識別倒前方汽車倒車燈亮起、汽車向后移動時,判斷對方意圖是停車,于是等它停好后再繼續前行;如果前方汽車停著不動,車載系統就會輕輕繞過去通行。
開發者既可將Alpamayo 1調整為更精簡的運行時模型,部署于車端;又可將它作為輔助駕駛的基礎架構,構建基于推理的評估器和自動標注系統等開發工具。
英偉達在GTC 2026大會上最新發布的Alpamayo 1.5,正是基于Alpamayo 1模型打造。Alpamayo 1.5模型可交互、可操控,能夠將行駛視頻、自車運動歷史、導航引導和自然語言指令作為輸入,輸出帶有推理鏈路的行駛軌跡,能夠清晰展示每項決策背后的邏輯。
開發者通過導航與文本指令,就能調控車輛駕駛行為并設定行駛約束條件。
AlpaSim是一款面向高保真輔助駕駛開發、完全開源的端到端閉環仿真框架,提供逼真的傳感器建模、可配置交通動態,以及可擴展的閉環測試環境,支持快速驗證與策略優化。
物理AI開放數據集包含來自全球2500多個城市的30多萬個片段,有超過1700小時的駕駛數據,覆蓋廣泛的地理區域和環境條件,涵蓋推動推理架構發展所需的罕見且復雜的真實世界極端場景。
三、全棧自動駕駛軟件平臺:多模態、端到端、主動安全防護
對于輔助駕駛系統,英偉達與OEM合作伙伴共同定義架構、功能和特性。當然最終的整車形態、駕乘感受和外觀設計由OEM負責。
NVIDIA DRIVE Hyperion和Alpamayo是NVIDIA DRIVE AV全棧式自動駕駛軟件平臺的一部分。
![]()
NVIDIA DRIVE AV軟件采用雙棧架構:
(1)多模態經典棧(包括感知/規劃/控制):安全守護層,提供冗余和安全防護。
(2)端到端AI棧:處理復雜動態場景,提供長尾駕駛所需的上下文推理和決策能力。
經典棧的工作原理是感知世界中的所有物體,預測動態物體的未來行為,綜合使用這些信息及行駛路線來決定應該遵循的正確安全路徑。
端到端AI棧將傳感器與導航路線作為輸入,通過一個單一網絡模型直接輸出最終的行駛軌跡。
![]()
系統會綜合這兩條軌跡,從中選擇最安全和舒適的軌跡。
兩層之間隨時準備好交接控制權:端到端模型主導開車,經典棧則猶如托底的安全衛士,在發現端到端模型做出不可接受的決策時,立刻接管,等情況解除后,再把控制權交還給端到端模型。
駕駛員隨時可以接管方向盤,期間軟件始終保持運行,并在人類與它協作時提供幫助。
![]()
為安全保駕護航的核心技術由NVIDIA Halos OS安全系統提供支撐。
Halos OS基于通過ASIL D級標準的DriveOS架構打造,其統一的三層安全架構整合了安全中間件與可量產部署的安全應用,包括符合NCAP 2026五星級標準的主動安全系統,通過緊急制動、規避轉向和360度威脅檢測,自動防止與汽車、行人或騎自行車者發生碰撞。
通常情況下,人類駕駛員的操作擁有更高優先級。如果原定路線是執行,駕駛員打錯方向盤左轉,汽車會按照駕駛員的操作來行駛。但如果因為駕駛員誤操作導致要撞向另一輛車,主動安全功能就會立即介入,阻止事故發生。
這些安全設計是量產落地的關鍵,也是通往L4自動駕駛的基礎。
四、三種方式采集數據,用高保真仿真增加數據多樣性
在開發階段,英偉達主要通過三種方式與OEM合作伙伴合作推進數據采集。
一是專用數據采集車隊,裝備傳感器的汽車由人類駕駛,在全球采集數據。
二是開發測試車隊,像我們乘坐的這輛一樣,做測試和開發,有些一直在采集,有些只在發生有趣事件時才采集。
三是客戶車隊,用戶購買了搭載NVIDIA DRIVE AV系統的量產車,車輛在發生有趣事件時會采集數據。
從配備DRIVE Hyperion的汽車收集的數據,可用于在云端訓練和優化AI模型,在逼真的仿真環境中驗證模型,然后將更新后的軟件部署回汽車,從而持續改進自動駕駛系統。
![]()
為了大規模構建和驗證軟件,英偉達使用了很多不同的仿真技術。
首先是英偉達Omniverse平臺,使用汽車采集的多傳感器數據構建數字孿生世界。
英偉達使用NVIDIA Cosmos在離線狀態下創建場景的許多不同變體,這對于創建大量數據用于訓練和驗證堆棧非常重要,尤其是關注到我們在現實世界中幾乎看不到的邊緣和罕見情況。
為了構建和驗證一個非常安全、可靠的堆棧,這是必不可少的。
另一項關鍵仿真技術是NVIDIA Omniverse NuRec。
為了涵蓋真實世界駕駛場景的多樣性,推理型輔助駕駛汽車的測試與驗證需要高保真的仿真環境。
NuRec是一套基于3D高斯潑濺技術的工具集,可通過接收攝像頭輸入,攝取真實世界數據,完成可交互仿真場景的重建與渲染,即重建其在現實世界中獲得的數據。
![]()
它能夠幫助輔助駕駛汽車開發者在不耗費大量時間和成本手動構建世界的情況下,對推理行為進行壓力測試,并模擬極端事件。
因此,英偉達能利用其在道路上行駛的每一英里、無限的時間來驗證每個新的軟件版本,加速輔助駕駛技術的進化。
結語
在試乘前,我曾以為這會像很多自動駕駛demo一樣,是在一個安全環境里沿著封閉路段開一圈。
但汽車開到了圣何塞的真實道路上,從車流密集的市中心開到熱門景點、居民區周遭,遇到了推車的老人、插隊占道的車、盯著手機走過的行人等真實的“意外”。
在這場近50分鐘的駕駛中,它不需要激光雷達、不需要高精度地圖,僅憑攝像頭、毫米波雷達、超聲波傳感器、芯片和具備推理能力的模型,就擔當了一位稱職的數字司機。
隨著汽車開始具備理解真實世界、推理并付諸行動的能力,更安全、智能的輔助駕駛功能將給未來出行方式帶來更多輕松與愉悅。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.