五角大樓的AI困局:當Claude成為"供應鏈風險"
今年1月,美國軍方在一次海外行動中成功抓捕委內瑞拉總統馬杜羅。很少有人知道,這次行動的幕后有一個"看不見的角色"——Anthropic的Claude AI模型。
![]()
兩個月后,五角大樓將Anthropic列為"供應鏈風險"企業。這家AI安全領域的標桿公司,一夜之間從國防部的技術伙伴變成了潛在威脅。
這場沖突的核心,是AI倫理與國家安全之間不可調和的張力。
Project Maven:AI戰爭的試驗場
要理解這場爭端,必須先了解Project Maven。
自2017年起,Palantir一直是這個五角大樓AI項目的核心承包商。Maven Smart System(簡稱Maven)由美國國家地理空間情報局管理,陸軍、空軍、太空軍、海軍陸戰隊、中央司令部都可以訪問。它的功能包括:對衛星圖像應用計算機視覺算法、自動識別"敵方系統"、可視化潛在打擊目標、推薦轟炸機和彈藥分配方案。
2024年11月,Palantir宣布與Anthropic達成合作,將Claude集成到其政府產品中。Palantir的官方說法是:Claude可以幫助分析師發現"數據驅動的洞察"、識別模式、支持"在時間敏感情況下做出明智決策"。
但兩家公司從未公開說明Claude具體如何被集成、哪些系統依賴它、軍方輸入了什么樣的查詢、AI給出了什么樣的建議。
直到今年2月,Anthropic拒絕向政府無條件開放其AI模型,堅稱Claude不應用于對美國人進行大規模監控或驅動完全自主武器。五角大樓的回應是:將其標記為"供應鏈風險"。
Anthropic的"紅線"與五角大樓的焦慮
Anthropic的立場并非突然轉變。
這家公司由OpenAI前研究副總裁Dario Amodei創立,核心使命就是"AI安全"。與OpenAI、Google、Meta不同,Anthropic從一開始就強調"負責任地開發AI",并為其模型設置了明確的使用邊界。
這些邊界包括:禁止用于大規模監控美國人、禁止驅動完全自主武器、要求人類在關鍵決策中保持控制。
問題在于,這些邊界與五角大樓的需求直接沖突。
根據美國司法部的法庭文件,國防部長Pete Hegseth"合理地"認定:"Anthropic員工可能破壞、惡意引入不需要的功能,或以其他方式破壞國家安全系統的設計、完整性或運作。"
政府的邏輯是:如果Anthropic可以在其"企業紅線"被跨越時單方面禁用或改變模型行為,那么它就是一個不可信的供應商。在正在進行的戰爭行動中,這種"拔插頭"的風險是不可接受的。
產業鏈視角:AI軍事化的三重博弈
這場爭端揭示了AI軍事化進程中的三個關鍵博弈:
第一,技術供應商vs國家安全。 Anthropic不是第一家與軍方產生摩擦的科技公司。Google曾因員工抗議退出Maven項目;微軟的HoloLens軍版合同也遭遇過內部抵制。但Anthropic是第一個因"過于堅持倫理底線"而被制裁的AI公司。這標志著AI軍事化進入了一個新階段:政府不再容忍供應商的"選擇性合作"。
第二,開源倫理vs封閉控制。 Anthropic的困境部分源于其技術架構——Claude是通過API提供的云服務,理論上Anthropic可以在服務器端修改模型行為。相比之下,開源模型(如Meta的Llama)可以被軍方自行部署,供應商無法"遠程干預"。這可能促使五角大樓未來更青睞開源方案。
第三,商業利益vs原則立場。 Anthropic的"紅線"可能讓它損失數十億美元收入。但這家公司選擇了訴訟而非妥協。值得注意的是,OpenAI和Google DeepMind的員工已提交法庭之友簡報支持Anthropic,微軟、聯邦雇員工會、前軍方領導人也站在Anthropic一邊。這表明硅谷內部對AI軍事化存在深刻分歧。
Claude在戰場上究竟做了什么?
WIRED獲得的Palantir軟件演示、公開文件和五角大樓記錄,首次揭示了Claude在軍事情報系統中的可能用途。
軍事官員可以使用Claude篩選大量情報數據。Maven系統能夠:對衛星圖像應用計算機視覺、自動檢測可能是"敵方系統"的物體、區分人員和車輛、"提名"目標進行地面或空中轟炸、推薦分配哪些轟炸機和彈藥。
此外,陸軍情報數據平臺(AIDP)整合了Maven和至少四個其他政府系統的數據,可以"圖形化"展示部隊和武器位置,還有一個名為Dossier的工具用于開發"情報運行評估"——這是在最終情報總結之前頻繁更新的戰場信息集合。
《紐約時報》和《華盛頓郵報》最近報道稱Maven依賴Anthropic的AI技術,但WIRED無法獨立核實這些說法。
我的觀點:沒有贏家的僵局
這場爭端很難有真正的贏家。
對Anthropic來說,即使贏得訴訟,與五角大樓的關系也已經破裂。政府正在用Google、OpenAI、xAI的產品替代Claude。長期來看,"供應鏈風險"的標簽可能影響其與其他政府機構的合作。
對五角大樓來說,失去Claude意味著在"高強度作戰行動"進行中被迫切換AI系統。法庭文件承認:"五角大樓不能簡單地按下開關,在Anthropic目前是唯一獲準用于機密系統的AI模型時。"這種被迫的供應商切換本身就是一種風險。
對AI行業來說,這個案例樹立了一個危險的先例:政府正在用"供應鏈安全"作為武器,迫使AI公司放棄其倫理承諾。如果這種做法被接受,任何試圖限制其產品軍事用途的科技公司都可能面臨類似制裁。
更深層的矛盾在于:我們究竟希望AI在戰爭中扮演什么角色?
Anthropic的立場是:AI可以輔助決策,但不能自主決定生死;可以提高效率,但不能消除人類的道德責任。五角大樓的立場是:在戰爭中,任何可能"掉鏈子"的技術都是不可接受的。
這兩種立場都有其合理性,也都有其危險。當它們碰撞時,產生的不是解決方案,而是更多的問題。
馬杜羅被捕行動中的Claude,可能只是一個開始。未來,類似的"AI輔助軍事行動"會越來越頻繁,而關于邊界和控制的爭論也會越來越激烈。
唯一確定的是:在AI與戰爭的交匯處,沒有簡單的答案,只有艱難的選擇。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.