4月中旬,美伊談判破裂、美國宣布封鎖霍爾木茲海峽后,AI 參與軍事決策與前線開火授權引發的規則變革討論。過去人們理解中的戰爭,通常還會有一整套較完整的流程:情報人員去盯線索,參謀部門開展研判和討論,指揮官對利弊進行權衡,行動部隊再執行命令。這個過程雖然慢,卻也保留了一種“剎車”作用,讓人還有時間去猶豫、復核以及修正。
可現在,這道剎車正在被AI一點點拆掉。目標鎖定、信息比對、威脅排序、打擊方案生成,這整條“殺傷鏈”已經被壓縮到幾分鐘,甚至幾十秒。人表面上還坐在指揮席上,但很多時候,更像是在對系統給出的結論進行確認。
![]()
以色列近年被頻繁提到的一些相關系統,真正讓人不安的地方,不只是算得快,而是把“判斷”這件事做成了流水線。以前是人主動去找目標,現在更像是系統先從海量數據當中篩出“像目標的人”,再把名單推到人面前。
在加沙戰場上,一些自動識別系統曾被曝出容許較大的誤差空間。附帶傷亡甚至也可能被提前納入模型計算,被包裝成“可接受代價”。這樣一來,戰爭判斷的邏輯就發生了變化。原來討論的重點是“該不該打”,現在卻越來越滑向“值不值得打”。
人在高壓力、快節奏的環境里,往往很容易去依賴機器。指揮官要面對倒計時、敵情變化以及政治壓力,這個時候系統馬上給出幾套方案,連成功率都標注好了,還會有多少人愿意慢慢提出質疑。于是,所謂“人類決策”很容易退化成“人類確認”。人并沒有消失,但人的遲疑、懷疑以及復核能力,正在被快速壓縮。
![]()
AI并不真正理解戰場。它可以識別圖像、比對數據、在數據庫里跑出相關性,但它無法真正明白現實細節背后的分量。一個人肩上扛著的,到底是武器還是工具;一個快速移動的人群,到底是武裝人員還是逃命平民;一輛停在街邊的車,到底是發射平臺還是送貨皮卡。
也正因為如此,技術越先進,責任反而越容易變得模糊。程序員可能會說,自己只是寫代碼;軍方會說,系統只是提供建議,決定是依照流程做出的;供應商則可能表示,模型準確率已經達標,具體怎樣使用并不歸它管理。機器不會坐上被告席,算法也不會認錯流淚,最后最容易消失的,反而是責任鏈條。
不少人原本以為,AI參戰會讓戰爭更加精準,現實遠沒有這么簡單。因為技術在提高精準度的同時,也在降低開火門檻。過去要發動一次打擊,往往還要經歷動員、爭論以及政治后果評估;現在系統幾秒鐘就能給出答案,決策者更容易產生一種錯覺:既然已經有數據背書,那就執行吧。戰爭于是從“慎重考慮后發動”,慢慢轉向“計算完成即可執行”。
早些年,許多工程師還堅持不要把代碼拿去開展殺戮工作,有人聯名反對,也有人直接辭職離開。可當國家安全、戰略競爭以及技術優勢這些議題被擺上桌面后,企業又開始回到軍工合作當中。說到底,在大國博弈面前,AI已經不只是產品,也不只是資本故事,而是新一輪戰略資源。
![]()
也不能把AI看成無所不能。戰爭終究發生在物理世界,而不是服務器里。地下工事、機動發射車、偽裝目標以及真假信號,都在提醒數據看得再多,也不代表現實一定會按照數據庫來運行。戰場從來不是一張表格,而是混亂、欺騙、誤判以及偶然性交織在一起的集合。把這樣一個世界交給概率模型去主導,本身就是高風險操作。
真正危險的地方,不是機器變得更聰明,而是人開始偷懶,把道德判斷外包給機器。算法可以用來輔助分析,卻不應該替代良知;系統可以幫助提高效率,卻不能把責任吞掉。戰爭再怎么高科技,也不該把生命壓縮成一串參數。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.