來源:中國新聞周刊
誰來“扣動扳機”?
國際社會一直強調,要保證智能化技術在武裝沖突中的應用不超出底線,最重要的原則就是“扣動扳機的必須是人,而非機器”。
但人是會異化的。名義上,現今的無人武器不是真正的“致命性自主武器”,只替代人類的前線暴露,不替代擊殺決策;AI大模型在軍事決策中的參與,只是整合分析數據、給出作戰方案建議,方案最終需要人類審批。但事實真的如此嗎?
想象你是一名無人機飛手,坐在屏幕前遙控,無人機在數十公里外尋找著可以擊殺的合法目標。突然,屏幕上出現了幾個模糊的熱成像目標,看起來可能是士兵,可能是傷兵,也可能是平民。只能看到這么多信息,你如何判斷攻擊還是不攻擊?
又或者,你是第一視角無人機的飛手,身處距離前線不遠的危險區域,隨時有被對方滲透小隊發現的風險。你高度緊張,戴著VR眼鏡,尋找著鏡頭內任何可移動的物體。終于,你看到了一個疑似逃跑的士兵,立刻沖上去,對方根本無法躲避。撞上前的最后一刻,你才發現他是穿著軍裝的平民。
好消息是,這些情形在今天的俄烏戰場上并不多見。這是因為俄烏沖突以傳統的機械化戰爭開始,歷經四年戰火后,當前線兩側40公里寬的區域變成無人機統治的危險地帶時,早就沒有什么平民居住和生活在這里了。但如果下一場戰爭的開局,就是雙方靠著一堆視野有限和成像模糊的無人機大殺四方呢?
更大的問題還是AI大模型輔助軍事決策。美國西點軍校利伯研究所等人道法機構,近期都出現了相關討論:當AI處理的數據遠遠超出人類的認知能力,指揮官如何才算是在審查AI提出的作戰建議時“善意評估了可用的戰場信息”?如何才算是給足了自己充分的考慮AI建議的時間?
這些問題最終都指向一點:當AI給出了基于大數據的“最優解”之后,決策者是否會放棄自我思考。這樣一來,戰爭將徹底異化:那些按下導彈按鈕、駕駛戰機、操縱無人機的,依然是人類,但給他們下達指令的其實是AI。
![]()
烏克蘭“梭魚”無人艇
圖/視覺中國
美以伊戰爭中已經出現了這種趨勢。這是美軍決策機制接入大模型后第一次給出大規模戰爭的作戰方案建議。一開始,雖然有情報滯后導致的“誤炸”,但空襲至少還集中于軍事領導人、軍事設施和核設施;之后,空襲開始覆蓋伊朗各地的政府、巴斯基民兵組織、警察局;到了4月初,公路、橋梁、鐵路等一般基礎設施也成為重點目標。
外界并不確知這是不是大模型基于伊朗的戰爭韌性而給出的分階段打擊建議,連西點軍校的學者都在激辯“國家間戰爭中,平民領導人和國內執法人員是不是軍事目標”。顯然,這不像是機械化戰爭時代的“體面”打法。
日常生活中,我們經常會向AI問出關涉社會、心理、情感的沒有標準答案的問題。那么,在制定作戰方案時,一旦AI被要求“速戰速決”,它會如何在宏觀上對比總體軍事利益和附帶平民傷害?如何精確地計算比例原則的上限?到最后,它告訴你,這份方案“不體面”、有爭議,但足以規避確定的法律風險,而且最高效,你用還是不用?
對此,學者們給出的建議包括但不限于:定期驗證和清理數據,明確各級責任和審批權限,充分培訓指揮官了解AI,甚至在AI決策中設定阻斷機制來強化區分民用目標,“如果識別出某處是醫院,就直接跳過”。
讓人感到悲觀的是,AI在決策中對“軍事必要”和比例原則的極端計算,只會讓決策者對附帶傷害的“容忍度”越來越高。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.