參考消息網3月6日報道 英國《衛報》網站3月3日發表一篇報道,題為《特朗普正在利用AI打仗——這是一個危險的轉折點》,內容編譯如下:
AI可以做的事情很多。它可以幫你整理購物清單,提高你的工作效率,也能幫助政府更有效地運作。
然而,如今人們對AI軍事化所固有的風險探討甚少,這正是我們現在需要大聲疾呼的問題。據報道,過去三個月里,美國特朗普政府曾兩次動用AI推動政權更迭。
首先,Anthropic公司的“克勞德”模型據稱被用于策劃和執行從委內瑞拉總統馬杜羅的住所將其抓捕的行動。就在近日,我們得知AI工具再次被用于進行情報解析,協助對伊朗發動造成巨大破壞的大規模導彈襲擊。
這兩件事的重要性怎么強調都不為過。AI已被用于軍事行動的規劃和執行,這些行動造成了未知數量的傷亡,并攪亂了中東局勢。
如果你對此感到不安,你并不孤單。Anthropic公司的首席執行官達里奧·阿莫代伊與美國總統爆發了一場公開的激烈爭吵,因為阿莫代伊拒絕放寬“克勞德”模型的兩條“紅線”:它不應用于大規模國內監控,也不應用于制造完全自主武器。
過去,諸如“誰應該控制AI?如果它被用于軍事用途會發生什么?”之類的問題只是學術界在研討會上進行的抽象討論。然而,當馬杜羅在1月被特種部隊抓獲、伊朗在2月開始遭受轟炸(顯然這一切都離不開AI的協助)時,局面就發生了改變。
武裝沖突的基本原則是:你可以擁有威懾力強大的武器,但絕不使用它們。令人擔憂的是,戰爭推演的早期跡象表明,AI決策者在核武器的使用上容易沖動開火。
當軍事歷史學家回顧過去數月發生的一切時,不難想象他們會認為,以這種方式使用AI,將類似于投在日本的核武器:標志著一個明確的“之前”與前途未卜的“之后”的分水嶺時刻。
國際社會現在需要努力將特朗普從懸崖邊拉回來。盟友們應該向特朗普政府施壓,不僅要求其在軍事領域負責任地使用AI,更應要求其接受具有約束力的限制。這些限制應包括國際承諾、透明的采購標準和有效的監督機制。其他國家也應予以遵守,而不是將倫理問題視為行動的阻礙。因為如果世界上最強大的軍隊將消費級AI模型常態化用于政權更迭行動,我們就將徹底踏入AI的危險鏡像世界,這是一個全新且整體上更加危險的世界。(編譯/王笛青)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.