![]()
歐洲新車安全評鑒協會(Euro NCAP)最近把特斯拉FSD拉出來"公開處刑"了。技術總監理查德·施拉姆的原話是:這套系統"既危險又不負責任"。
施拉姆多年前在美國試過FSD,承認表現確實亮眼。但他發現了一個致命矛盾——系統越聰明,駕駛員越容易走神。這就像給新手配了一把削鐵如泥的刀,刀越快,人越敢瞎揮。
他的解決方案很直接:既然叫"全自動駕駛",那就永久為所有事故買單。做不到?那就老老實實承認是輔助駕駛,并負責監督駕駛員有沒有摸魚。
![]()
目前FSD依靠純視覺方案,能讓Model 3和Model Y自己過路口、等紅燈、找車位。但歐洲市場至今大門緊閉,一方面是監管門檻高,另一方面是各國道路標識和規則差異太大,技術適配成本陡增。
施拉姆把矛頭指向了命名本身。"FSD(監督版)"這個叫法,暗示車輛會扛事,實際上鍋還是駕駛員背。他打了個比方:如果車企敢叫"自動化駕駛",性質就變了,評判標準也得重寫。整個行業現在沒一家能做到真·自動駕駛,全是輔助功能,區別只在于誰的責任劃分更誠實。
Euro NCAP已經推出了高級駕駛輔助系統評級,特斯拉的自動輔助駕駛也在測評名單里。施拉姆透露了兩個扣分項:一是名字誤導,二是系統沒和駕駛員監控深度綁定。按他的標準,檢測到駕駛員走神就該強制喚醒,畢竟最終責任在車企。
![]()
即便FSD未來拿到歐洲入場券,測評重點也不是它開得多順——這點基本認可——而是"管人"管得嚴不嚴。
2026版新規已經加入駕駛員監控系統的穩定性測試,考核識別精度和追蹤能力。2029年的版本會更細:系統得學會判斷,什么時候該出手——比如駕駛員明明沒注意到障礙物,這時候干預才有意義。如果只是轉頭看后視鏡、調個電臺,系統就瘋狂報警,說明設計本身有問題。
2029年規范還在打磨,正式發布前會和車企多輪磋商。但方向已經明確:未來的自動駕駛評分,比的不再是車有多聰明,而是人和車的權責邊界有多清晰。
據IT之家了解,駕駛員與主動安全系統的協同管控,現已成為Euro NCAP及澳新對應機構的測評核心。一套系統的"安全感",終于要從參數表上的算力數字,轉向儀表盤后那個真實的人類了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.