![]()
大家好,我是金戈。
過去打仗,是人盯人、將軍拍板、士兵執行,講究經驗和判斷。
可如今的戰爭,越來越像一場“算法主導的游戲”,在加沙、在伊朗、在整個中東戰場上,一切似乎都開始由人工智能說了算——誰是目標、什么時候開火、多少人可以成為“附帶傷亡”,都由冷冰冰的系統來計算。
以色列的AI系統正在悄悄改寫戰爭規則,哈馬斯高層一個個被“提前鎖定”,不少人甚至在還沒下達命令之前,就已經被算法選定“執行”。
面對這個趨勢,不少網友表示,遠在美國的特朗普,怕了嗎.....
![]()
這次的主角是以色列,在過去幾年里,以色列在戰爭中開始全面啟用人工智能系統,特別是兩套引發大量爭議的AI模型——“福音”(Gospel)和“薰衣草”(Lavender)。
![]()
“福音”是針對建筑和組織的大規模轟炸系統,比如哈馬斯的基地、彈藥庫、指揮中心,甚至掩藏在學校醫院下的地下隧道,AI會根據威脅等級自動排名、自動生成打擊計劃。
而“薰衣草”就更驚人,它針對的是具體的人,哈馬斯成員、高級指揮官,甚至他們的家屬,都在被系統持續追蹤的名單里。
![]()
根據多家國際媒體曝光的消息,“薰衣草”AI在2023年以哈沖突爆發前,已經搜集了約3.7萬個哈馬斯人員及其相關家庭數據。
這些人被系統自動標注為“可處決目標”。
系統通過黑入通訊網絡、支付平臺、街頭攝像頭、甚至社交媒體分析,生成每個目標的“日常軌跡”,判斷他們何時出門、坐哪輛車、吃什么飯、去哪個地址。
![]()
然后,再由算法自動設計“最合適”的打擊方式,無人機導彈、定點炸彈、還是伏擊,整個過程,幾乎不再有人類拍板。
從過去情報人員要一周分析批準一個行動,到如今AI只要十幾個小時就能完成收集、決策、執行——戰爭速度被徹底“刷新”,效率看似暴增,卻也讓血腥變得更加冰冷。
而且,這一切并不只是理論。
![]()
在加沙,多名哈馬斯指揮官確實被AI系統精準鎖定,根據《衛報》《路透社》等報道,這種智能打擊讓以色列軍方在短時間內完成了成千目標的“快速清除”。
但與之相隨的,是平民傷亡曲線的快速上升,算法不懂人命,它只懂成功率。
這也是為什么不少國際觀察人士認為,以色列已經進入了“全自動戰爭時代”。
![]()
這場戰爭里,人只是執行機器計算出的結果——戰爭不再需要將軍的直覺,而是系統的判斷,聽起來高效,但問題在于,這種效率,背后是血的代價。
![]()
以色列軍方內部直接設置了這樣一個數值邏輯,殺一個低層官員,算法允許犧牲15到20個平民,而如果目標是高級指揮官,可以容忍最多300名平民死亡。
換句話說,算法對生命的定義,是數字,而不是人。
這就導致了一個結果,在AI主導的戰場上,判斷“可接受的傷亡”,不再由人類的良知決定,而是由系統參數決定。
它只關心“任務成功率”,不關心“生命代價”。
![]()
事實也印證了這種冷酷現實,根據聯合國與國際紅十字會的統計,2023-2024的加沙沖突中,死亡人數已經超過3.4萬人,其中超九成是平民,而2014年的加沙戰爭,死亡人口僅有1400人。
國際輿論震驚,但以色列方面依然堅稱——“AI使我們更精準”。
![]()
有研究者甚至指出,以色列的這套AI系統已經被美國軍方密切研究,因為美國在中東的行動也希望引入這種自動殺傷體系。
于是,戰爭正在變成“拼算法、拼數據、拼權限”的冷戰新形態。
![]()
根據《紐約時報》《華爾街日報》今年公開的資料,美國國防部已經與AI企業Palantir合作,將多套人工智能模型融合到作戰指揮系統之中。
這意味著,從偵查到決策,從目標優先排序到攻擊路徑規劃,AI在美軍體系中有了更深的發言權。過去幾千名軍官需要半個月去做的任務,現在二十個人、幾小時就能完成。
甚至在模擬測試中,美國的AI系統能在數小時內生成數百個“打擊清單”,很明顯,AI正在搶奪人類軍官的指揮權。
而更重要的是,美國不僅用AI作戰,還在評估“智能殺傷授權”的可行性,也就是某個目標只要程序認定威脅足夠高,就可被系統直接下令攻擊。
這正是以色列“全自動處決”體系的核心邏輯。
美國跟進這套機制后,未來戰爭將不再是純粹的軍事比拼,而是算法與人性的對抗。
而在政治層面,這種模式也讓決策者開始緊張,特朗普在公開場合多次強調“AI必須受人類控制”,而非獨立決策。
因為一旦AI在軍事層擁有完全權限,美國將被自己創造的系統綁架。
這種不安不只是特朗普個人的顧慮,而是整個國際社會共同的焦慮。AI可以讓戰爭更快結束,但誰能保證它不會犯錯?它不會因為四個坐標的數據偏差,就把一棟滿是平民的樓炸成廢墟嗎?
![]()
以色列的AI體系,是美國未來可能的模板。
結果雖然高效,但同樣帶來巨大的爭議:快是快了,可人命也沒了。
![]()
這場新的“AI戰爭潮”,正在悄然擴散,而它背后的邏輯,就是以色列當初用來處決哈馬斯高層的那一套程序。
以色列的AI手段確實讓世界震驚,美國也在緊隨腳步,但這背后隱藏的正是一個我們必須思考的問題:當算法開始決定生死,人類還掌握著戰爭的方向嗎?
從加沙到伊朗,從數據搜集到無人機處決,AI讓戰爭速度暴增,殘酷程度加深。
![]()
它帶來的不僅是軍事“升級”,更是一場倫理崩塌,我們必須看到,科技本該是為人類服務的工具,而不是審判人類的“冷血法官”。
未來的戰爭或許不再需要將軍,只需要一行代碼。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.