![]()
4月的奧斯汀,一只在Mueller湖公園孵蛋的母鴨,成了自動駕駛行業最新的"系統盲區"標本。Avride的測試車碾過去的時候,車速沒降,輪子沒偏,車里那個雙手離盤的安全員也沒喊停。
居民Lewis Pierce在Facebook群里發了帖,說這車"直接碾過去,沒減速沒猶豫"。他還補了一句:出事前剛闖過一個停車標志。Avride查了數據,否認了闖標志的事,但鴨子確實死了。
一只鴨子的死亡,戳破了"比人更安全"的敘事
自動駕駛公司愛用的統計口徑是"每X萬英里事故率低于人類司機"。但這類數據有個狡猾的篩選機制:它統計的是"造成人身傷害的事故",碾死鴨子、貓、狗通常不在列。
Waymo去年在舊金山軋死一只叫Skeeter的便利店貓,成了全國性新聞。另一只Waymo撞了狗,車里孩子哭了一路。這些事件在公司的安全報告里,大概率歸類為"低嚴重性接觸"或干脆不收錄。
Avride的回應很標準:啟動調查、臨時調整路線避開湖區、承諾分析數據。公關負責人Yulia Shveyko的聲明里有個細節——"車輛在相關停車標志處完成了完全且適當的停止"。這句話的精確性很有意思:它沒否認鴨子被撞,只否認了居民說的"闖標志"。
技術層面的尷尬在于:當前的感知系統對"小型低速移動物體"的識別,遠不如對車輛和行人可靠。
鴨子的高度大概15厘米,移動速度每秒1-2米,羽毛的雷達反射特性跟地面雜波接近。激光雷達的點云密度在遠距離會稀釋,攝像頭在逆光或樹蔭下可能把鴨子識別為"地面紋理異常"。
更麻煩的是決策層。即使感知到了"某個東西",系統要判斷它是需要緊急制動的障礙物,還是可壓過的落葉或紙袋?保守策略會導致頻繁急剎,乘客投訴;激進策略就是現在的局面。
安全員在車里,為什么沒干預?
Pierce的描述很關鍵:"車里的人雙手沒碰方向盤,事后也沒停車查看。"這指向一個被低估的問題——安全員的注意力衰減。
![]()
自動駕駛測試車的安全員,平均每天要處理數百次系統提示,其中99%以上是虛警。幾個月下來,人會進入一種"監控麻木"狀態:眼睛盯著路面,大腦已經離線。等到真正需要接管時,反應時間往往超過2秒,對40公里時速的車來說,這就是20米的制動距離。
Avride沒有公布安全員是否收到了系統預警。如果預警發了而人沒反應,是培訓問題;如果系統根本沒識別到鴨子,是算法問題。兩種情況的性質完全不同,但公司選擇了模糊處理。
居民Ada Dang的吐槽很直白:"人類考駕照才能開車,這無人車沒考過,先殺了我們都認識的野生動物。"她的邏輯漏洞在于——人類司機碾死野生動物的概率其實更高,只是沒人逐起統計。但情緒上她沒錯:當技術承諾"更安全"時,任何可避免的死亡都是違約。
鴨子的蛋被好心人撿走孵化了。這個細節像一則現代寓言:技術系統制造了傷亡,民間組織收拾殘局。
奧斯汀正在成為自動駕駛的"壓力測試場"
這座城市聚集了Waymo、Tesla FSD、Avride等多家公司的測試車隊,居民對無人車的容忍度正在快速消耗。Pierce說這件事"讓我嚴重懷疑這些車的安全性",這種個體層面的信任崩塌,比任何監管罰款都更難修復。
行業的一個隱性焦慮是:動物傷亡事件正在積累為一種"情緒負債"。Skeeter貓的死讓Waymo在舊金山遭遇社區抵制,母鴨的死可能讓Avride在奧斯汀的擴張受阻。這些事件不會出現在SEC文件里,但會影響地方許可、保險費率、人才招聘。
Avride的臨時路線調整是個有趣的信號。避開湖區意味著承認"當前系統無法安全處理該場景",但公司不會明說。這種"靜默降級"在行業內很常見:某條街道出過事,就悄悄把車隊調走,等算法迭代后再回來。
問題在于,城市里有無數個"湖區"——學校門口放學時的混亂、施工路段的臨時改道、暴雨天的積水反光。每個邊緣場景都需要用真實事故來"標注數據",這個代價由誰承擔?
母鴨的蛋還在孵化器里。Pierce說會有志愿者照顧到孵化。幾個月后,如果小鴨子破殼,它們會回到那個公園,而Avride的車可能已經恢復了湖區運營——前提是算法更新完成,且沒有新的居民在Facebook上發帖。
技術迭代的速度,和公眾記憶的長度,哪個更快?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.