你敢信嗎?決定一枚導彈是否炸向德黑蘭民居的,竟然不是人,而是一段代碼。更魔幻的是,給美軍提供“殺人算法”的AI公司,因為不想當“冷血幫兇”,居然被美國政府給“拉黑”了!
![]()
這不是科幻電影,這是正在上演的“史詩怒火”行動內幕。美軍中央司令部親口承認,在炸死伊朗高層的“斬首”行動中,AI已經成了挑選獵物的核心工具。那個叫“克勞德”的AI模型,正在以每小時處理42個目標的“變態”速度,決定誰該死、誰該活。
人類淪為“蓋章機器”?
這背后藏著一個細思極恐的細節:AI大概有10%的出錯率,但它推薦的獵物,人類上司只用20秒就批準了。這20秒能干什么?抽半根煙?喝一口水?僅僅夠看一眼“目標是不是男的”。這就是所謂的“自動化偏見”——當機器告訴你那是敵人,你甚至懶得質疑。
還記得伊朗南部那所被炸平的小學嗎?170多條人命,真的只是“誤炸”嗎?當打擊名單由AI批量生成,當致命的失誤被算法輕描淡寫地歸為“系統偏差”,戰爭的倫理底線已經被擊穿。
硅谷的“良心”扛不住白宮的槍
就在戰火紛飛時,硅谷上演了更荒誕的一幕。那個開發“克勞德”的Anthropic公司,因為死活不肯給美軍“完全授權”——拒絕讓AI搞大規模監控,拒絕讓AI自主決定殺人——結果被五角大樓直接拉進“供應鏈風險”黑名單!總統親自下令,限期六個月,滾出軍事供應鏈。
一邊是拒絕成為殺人機器的工程師,一邊是叫囂“不為我殺人就別想賺錢”的國防部。Anthropic的CEO無奈地說:“我們有紅線。”五角大樓的回復更硬:“在美國戰士的生命面前,你的良心就是狗屁。” 這就是現實:當硅谷最后的理想主義撞上軍工復合體的槍口,倒下的一定是理想主義。
數據中心的“炸彈”比導彈更致命
這一次還有個“第一”:伊朗不僅炸軍事基地,還直接瞄準了亞馬遜在巴林、阿聯酋的數據中心。明白了嗎?在AI時代,算力和數據就是石油和彈藥。谷歌、亞馬遜一邊給你刷視頻,一邊幫五角大樓算坐標,這些云端服務器早已是披著民用外衣的“軍事堡壘”。
數字主權的戰爭已經打響,如果連存儲快樂照片的云端服務器,在戰時都可能變成敵方打擊的坐標,我們還能往哪里逃?
AI用20秒決定生死,卻用10%的誤差收割平民。當“克勞德”們開始思考,人類卻淪為旁觀的按鈕,你說,這到底是戰爭進化的奇跡,還是人類末日的喪鐘?
如果是你,愿意把生殺大權交給一個會出錯、但沒有良心的AI嗎?評論區告訴我你的恐懼。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.