165條孩子的人命,美軍現在打算讓一段代碼來背。這場“甩鍋大戲”,開場了!
數天前,伊朗南部一所小學遭空襲事件,至少有165名兒童遇難。美軍被指認為要對此事負責——犯了戰爭罪。現在,美軍出來甩鍋了,向媒體宣傳:這全是人工智能犯的錯,與他們無關。
![]()
當前的中東沖突,一個新的“參與者”登場——AI
按照美國軍方的說法,他們用AI來鎖定伊朗境內打擊目標,可萬萬沒有想到的是:正是這套所謂“智能系統”的失誤,導致大量民用設施遭到打擊。其中,就包括伊朗米納布一所收容著大量兒童的學校。
外媒稱:美國軍方高度依賴由Palantir公司開發、基于克勞德算法的“梅文智能系統”數字飛行管理平臺——《華盛頓郵報》披露,這套工具已幫助美軍將近千處伊朗設施列為打擊目標。
該程序不僅能標注目標坐標,還能對打擊目標進行優先級排序,并在襲擊結束后分析所謂的“戰果”。該報一名匿名消息人士直言:人工智能讓美軍顯著加快了沖突節奏,本質上是在加速戰爭機器的運轉。
然而,這臺被算法驅動的戰爭機器在高速運轉的同時,也悄然偏離了人道主義的軌道——效率的提升并未帶來精準度的必然保障。相反,當系統在分秒之間為數千個目標進行“優先級排序”時,那些復雜的戰場現實、模糊的民用與軍事邊界,便被簡化成了冷冰冰的數據點。
《紐約時報》的最新調查,便揭開了這種“算法式殺戮”背后血淋淋的真相——文章明確指出,學校遇襲與鄰近的伊朗伊斯蘭革命衛隊海軍基地襲擊幾乎同時發生。截至目前,美軍襲擊學校的行動已造成至少175人死亡,其中絕大多數是無辜兒童。
![]()
五角大樓前平民傷亡顧問韋斯·布萊恩特等衛星圖像分析專家早已得出結論:包括學校在內的所有遇襲建筑,均遭到精確打擊摧毀。他直言,這所學校極有可能是“目標識別錯誤的犧牲品”——被系統判定為軍事目標。
這說法有人信嗎?呵呵,南生是絕對不會相信的
這哪里是技術失誤,分明是一場早有預謀的甩鍋大戲,必然是在推卸責任。美軍比誰都清楚,AI從來沒有真正的開火權——從目標鎖定到最終下達打擊命令,每一步都掌握在美軍指揮官手里。
目前的AI只是提供在參考,做出最終決定的是人,按下打擊按鈕的是人,批準轟炸的還是人————那些坐在指揮中心里、拿著高額薪水的美軍軍官或者是站在他們背后的美以政客。
當下的AI系統還遠未達到徹底取代人類的先進程度,它可以建議,但人有權拒絕。當一座建筑被系統判定為“可疑目標”時,任何一位有良知的指揮官都應該調取衛星圖像、核對歷史資料、確認是否真有兒童在那里生活。
然而,美軍選擇了“信任算法”——或者說是“故意將責任拋給AI”,選擇用算法來替自己承擔道德與戰爭罪行。
![]()
即使是AI出錯,戰爭罪的主體也只能是人類
國際法對戰爭罪的界定非常清晰:蓄意攻擊平民目標、未能采取預防措施避免“大量平民傷亡,”均構成戰爭罪。請注意,法律追究的是“實實在在的人”——那個做出決策的人。
AI不是法律意義上的“人”,它無法出庭受審,無法被判刑,更無法向165名孩子的亡靈道歉。美軍把鍋甩給AI,等于是在玩一場文字游戲:既然兇手不是人,那誰也不用負責。
這種邏輯如果成立,未來任何戰爭罪行都可以被包裝成“技術故障”——人類犯下的罪,都可以讓機器去頂包嘛。好處全歸自己(人類),罪責全歸AI,天底下哪有這么便宜的事情呢?
一所小學,滿是無辜兒童,被炸成廢墟,近兩百條幼小生命逝去。這不是人工智能算法的悲劇,而是美軍漠視生命的罪證。
想用人工智能當擋箭牌,逃脫戰爭罪的追責?騙得了一時,騙不了一世。
![]()
代碼無罪,但下達命令的手有罪!全世界都看得清清楚楚:真正該為死去兒童負責的,從來不是代碼,而是發動戰爭、推卸責任的美國軍方。
這鍋,AI不背,全世界也不會認。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.