當(dāng)殺傷鏈縮短,道德猶豫的空間也隨之縮小。
![]()
美以對伊朗的聯(lián)合軍事打擊,不僅加劇了本已動蕩的地區(qū)沖突,更揭示了基于算法的目標(biāo)選定和數(shù)據(jù)驅(qū)動的情報工作正在如何重塑戰(zhàn)爭機(jī)制。據(jù)報道,僅在最初的12小時內(nèi),美以軍隊(duì)就對伊朗目標(biāo)執(zhí)行了近900次打擊,這種作戰(zhàn)節(jié)奏在以往的沖突中可能需要數(shù)天甚至數(shù)周才能實(shí)現(xiàn)。
除了打擊的規(guī)模和殺傷力——包括使用隱形轟炸機(jī)、巡航導(dǎo)彈和自殺式無人機(jī)的數(shù)百次任務(wù)——最令軍事分析家和倫理學(xué)家矚目的是人工智能(AI)在規(guī)劃、分析乃至潛在執(zhí)行這些行動中日益增長的作用。批評者警告,這一趨勢可能將決策時間壓縮到人類判斷力被邊緣化的程度,從而開啟一個被形容為"比思維速度還快"的戰(zhàn)爭時代。
用軍事術(shù)語來說,"縮短殺傷鏈"指的是將目標(biāo)識別、情報驗(yàn)證、法律許可到武器發(fā)射的序列,壓縮成一個更為緊湊的作戰(zhàn)閉環(huán)。這個縮短的間隔引發(fā)了一種擔(dān)憂:人類專家可能最終僅僅淪為算法生成建議的批準(zhǔn)者。在一個以速度和自動化為導(dǎo)向的環(huán)境中,猶豫、異議或道德約束的空間可能同樣在迅速縮小。
AI與殺傷鏈:發(fā)生了什么變化?
能夠處理海量數(shù)據(jù)的AI系統(tǒng),以人類團(tuán)隊(duì)無法比擬的速度,連接著無人機(jī)視頻饋送、衛(wèi)星圖像和電信攔截等情報源。
據(jù)報道,在美以對伊朗的打擊中,這些工具被用于生成目標(biāo)建議,并將以往需要數(shù)天或數(shù)周的計劃周期壓縮至數(shù)小時甚至數(shù)分鐘。紐卡斯?fàn)柎髮W(xué)政治地理學(xué)高級講師、軍事殺傷鏈專家克雷格·瓊斯指出,AI系統(tǒng)現(xiàn)在正以某種程度超越人類認(rèn)知處理的速度"提出關(guān)于打擊目標(biāo)的建議"。他認(rèn)為,其結(jié)果是實(shí)現(xiàn)了規(guī)模化同步執(zhí)行:領(lǐng)導(dǎo)人目標(biāo)打擊、導(dǎo)彈壓制和基礎(chǔ)設(shè)施攻擊不再是按順序進(jìn)行,而是并行開展。
倫敦瑪麗女王大學(xué)倫理學(xué)、技術(shù)與社會教授大衛(wèi)·萊斯利同樣在評論中警告,此類系統(tǒng)將規(guī)劃時間線壓縮成一個"非常狹窄的時間段"供人類審查。雖然理論上指揮官仍"在決策回路中",但進(jìn)行有意義的深思熟慮的窗口已急劇縮小。這種作戰(zhàn)節(jié)奏的壓縮,常被稱為"決策壓縮",不僅僅是關(guān)乎效率。它改變了軍事權(quán)威的結(jié)構(gòu)本身,縮小了法律顧問、分析員和指揮官在武器發(fā)射前質(zhì)疑各種假設(shè)的空間。
AI增強(qiáng)作戰(zhàn)的倫理問題
倫理與技術(shù)專家警告,隨著AI系統(tǒng)在軍事規(guī)劃中承擔(dān)更多角色,人類監(jiān)督的性質(zhì)正在發(fā)生根本性改變。一個擔(dān)憂是"認(rèn)知卸責(zé)",即決策者過于輕易地順從算法推薦,實(shí)際上削弱了人類對戰(zhàn)略選擇的責(zé)任。
當(dāng)涉及平民傷亡時,這種疏離感尤其令人不安。在最近一次對伊朗南部的打擊中,至少150人喪生,其中許多是女學(xué)生,聯(lián)合國稱此事件為"嚴(yán)重違反人道主義法"。國際人道主義法是在假定人類在相稱性和區(qū)分性原則下進(jìn)行判斷的基礎(chǔ)上構(gòu)想的。隨著AI系統(tǒng)壓縮時間線并快速生成打擊選項(xiàng),這些法律和倫理約束很可能被追求速度的絕對必要性所掩蓋。
關(guān)于軍事化AI的學(xué)術(shù)研究持續(xù)強(qiáng)調(diào),需要建立框架來防止在致命場景中人類能動性的侵蝕,并確保戰(zhàn)場效率不會凌駕于對平民傷害和遵守法律的考量之上。
圍繞軍事AI的倫理張力并非抽象概念。Anthropic公司的Claude模型此前已被整合到美國國家安全工作流程中,與帕蘭提爾公司合作,協(xié)助情報分析和戰(zhàn)爭規(guī)劃。
然而,Anthropic公司明確劃定了界限,反對將其系統(tǒng)用于完全自主的武器或國內(nèi)監(jiān)控應(yīng)用。在伊朗打擊行動前幾天,美國政府表示,根據(jù)這些限制,Anthropic將從某些國防系統(tǒng)中逐步淘汰。此后不久,OpenAI與五角大樓就其模型用于軍事應(yīng)用達(dá)成了自己的協(xié)議。Anthropic的立場預(yù)示著這個新戰(zhàn)爭時代的一個核心矛盾:那些能夠以前所未有速度整合情報的相同模型,同樣可能被改用于監(jiān)控或自主致命系統(tǒng)。
人類權(quán)威是否能保持核心地位,可能不僅取決于軍事學(xué)說,也取決于科技公司如何選擇界定其參與的限度。令人擔(dān)憂的是,在旨在模擬冷戰(zhàn)式核危機(jī)的兵棋推演中,AI模型絕大多數(shù)情況下都傾向于升級至核選項(xiàng),在95%的場景中選擇戰(zhàn)術(shù)核行動,極少選擇降級。雖然這些模擬并不意味著在真實(shí)沖突中AI會不可避免地選擇核升級,但它們揭示了戰(zhàn)略推理模型在壓力下如何可能默認(rèn)走向極端結(jié)果。
伊朗之外的AI作戰(zhàn)應(yīng)用:加沙、委內(nèi)瑞拉與全球格局
先進(jìn)的軍事AI用于目標(biāo)識別和攻擊規(guī)劃已有一段時間。例如,在加沙地帶,以色列國防軍部署了像"福音"和"拉文德"這樣的AI工具,自動篩選海量監(jiān)控數(shù)據(jù),每日生成打擊目標(biāo)清單,供分析員審查和采取行動。
據(jù)軍事消息源和調(diào)查顯示,"福音"系統(tǒng)每天能產(chǎn)出數(shù)十個目標(biāo),速度遠(yuǎn)超傳統(tǒng)人工流程;而"拉文德"則維護(hù)著由AI算法標(biāo)記的疑似戰(zhàn)斗人員及相關(guān)地點(diǎn)的龐大數(shù)據(jù)庫。
在中東之外,美國也在其他地區(qū)試驗(yàn)了AI工具。據(jù)多份報道,在2026年初一次抓捕委內(nèi)瑞拉前總統(tǒng)尼古拉斯·馬杜羅的高調(diào)行動中,美軍使用了Anthropic的Claude模型來支持情報分析和目標(biāo)選擇。自2017年美國國防部啟動"梅文計劃"等長期項(xiàng)目以來,機(jī)器學(xué)習(xí)已被應(yīng)用于分析圖像并支持從伊拉克、敘利亞到烏克蘭等沖突中的目標(biāo)決策,在烏克蘭,AI輔助無人機(jī)幫助在復(fù)雜的電子戰(zhàn)環(huán)境中識別和打擊目標(biāo)。
在地緣政治層面,為在軍事領(lǐng)域使用AI建立規(guī)范的嘗試進(jìn)展不一。美國政策制定者提出了一項(xiàng)"關(guān)于負(fù)責(zé)任地在軍事上使用人工智能和自主技術(shù)的政治宣言",數(shù)十個國家簽署支持關(guān)于致命性自主武器和人類監(jiān)督的負(fù)責(zé)任實(shí)踐。
然而,包括就像美國這樣的軍事大國,有時不愿全面接受具有約束力的限制,反映出戰(zhàn)略優(yōu)勢與倫理約束之間的優(yōu)先事項(xiàng)沖突。其他國家也在推進(jìn)AI賦能武器。在土耳其,"巴伊卡爾·巴伊拉克塔爾·凱曼凱什1型"巡航導(dǎo)彈集成了AI輔助光學(xué)制導(dǎo),用于在惡劣條件下自主識別目標(biāo)。在印度,像"阿努曼計劃"和"特里內(nèi)特拉計劃"等國防研究項(xiàng)目正在探索AI在跨網(wǎng)絡(luò)整合情報和實(shí)現(xiàn)早期威脅評估方面的潛力。
此次伊朗軍事行動的特殊之處,不僅在于打擊的強(qiáng)度,更在于AI輔助目標(biāo)選定在規(guī)模上的常態(tài)化。從自動生成的打擊清單到被壓縮的法律審查,算法的介入正以前所未有的方式嵌入現(xiàn)代沖突。
如果朋友們喜歡,敬請關(guān)注“知新了了”!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.