張薇薇
隨著人工智能技術飛速發(fā)展,其軍事化應用日益進入大眾視野。在以色列空襲加沙和美以對伊朗的打擊中,人工智能均得到深度應用。據報道,以色列使用“福音”“薰衣草”等AI系統(tǒng)識別和追蹤目標;美軍使用Palantir的Maven系統(tǒng)和Anthropic的Claude模型分析情報、規(guī)劃打擊路徑。然而,在技術大幅提升戰(zhàn)爭效率的背后,深刻的倫理危機正在發(fā)酵。
任何復雜自動化系統(tǒng)都存在出錯概率,且無法降為零。過往數據難以覆蓋所有真實戰(zhàn)場場景,在復雜多變的戰(zhàn)場環(huán)境中,深度學習模型極易產生偏差。伊朗小學慘遭炸毀,百余人遇難,就令美軍所謂的精準打擊徹底淪為謊言。
盡管美軍稱人工智能僅提供分析和建議,但在人工智能海量、高速的決策循環(huán)中,人類力量的局限日益凸顯。有報道稱,在以色列對加沙的空襲中,雖設有人工核查環(huán)節(jié),但因核查量大、人員疲勞,常淪為走過場。隨著系統(tǒng)進一步進化,人類失去實質性控制權的可能性也在增大。
但為搶占技術應用先機,美軍正積極推動人工智能軍事化應用。今年1月,美國防部發(fā)布《人工智能加速戰(zhàn)略》,將人工智能打造為貫穿作戰(zhàn)、情報和管理三大核心領域的系統(tǒng)性基礎。
2月,美國防部與Anthropic公司的重大分歧曝光。Anthropic堅持其Claude模型不能被用于大規(guī)模監(jiān)控和沒有人類介入的全自主武器系統(tǒng)。但美國防部強硬要求“無限制訪問權”,并將Anthropic列為“供應鏈國家安全風險”以示懲罰。矛盾的實質,是對人工智能軍事化應用是否應設“紅線”、如何設“紅線”的爭執(zhí)。
然而Anthropic的堅持未能阻擋五角大樓的步伐。很快,OpenAI宣布與國防部達成協(xié)議,接受“一切合法用途”條款。谷歌和馬斯克旗下的人工智能公司xAI也與美國防部簽有合同,且未附加公開限制條件。人工智能技術遭濫用的風險正史無前例地升高。
一旦打擊效率被置于戰(zhàn)爭倫理之前,傷亡風險被包裝為可接受的概率,失誤責任被推給數據和算法,人工智能技術將面臨制度化濫用,進而加劇全球安全困境。
首先,技術的高效性會削弱解決沖突的審慎性,可能使武力從“最后手段”變?yōu)椤笆走x手段”。人工智能軍事化程度高的國家,可能因過度自信而草率發(fā)起攻擊。
其次,可能引發(fā)新的人工智能軍備競賽。技術不透明將導致安全困境升級,各國可能不斷追求更優(yōu)算法、更強算力和更自主的決策鏈。
此外,技術濫用還可能動搖核威懾體系的穩(wěn)定。一旦人工智能用于增強己方核打擊能力或削弱對方核威懾力,原有戰(zhàn)略穩(wěn)定就會遭到破壞。
中國政府高度重視人工智能軍事化應用問題。中國提出《全球人工智能治理倡議》,發(fā)布《中國關于規(guī)范人工智能軍事應用的立場文件》,主張各國尤其是大國應本著慎重負責的態(tài)度在軍事領域研發(fā)和使用人工智能技術。中方主張遵循“以人為本的軍事人工智能”理念,通過對話合作就如何規(guī)范人工智能軍事應用尋求共識,既要引導軍事人工智能的正確發(fā)展方向,又要防范其毫無約束的發(fā)展。我們應該明確技術應用的道德和法律底線,加強國際安全和技術治理合作,堅決反對技術濫用,保護人類安全與福祉。
(作者是中國國際問題研究院世界和平與安全研究所副所長、副研究員)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.