![]()
2026 年 2 月 27 日至 3 月 1 日,美國國防部(后改稱「戰爭部」Department of War)與兩家頭部 AI 公司的關系在兩天內徹底改寫:與 Anthropic 的談判破裂后,特朗普下令聯邦機構在過渡期后停用 Anthropic 技術,國防部長將 Anthropic 列為「供應鏈風險」;OpenAI 則迅速宣布與五角大樓達成協議,允許在機密環境中部署其模型。OpenAI CEO 薩姆·奧爾特曼(Sam Altman)在 X 上公開承認:「節奏確實倉促,觀感也不好。」但他強調,協議設有多層技術與管理保障,并已請求政府將同等條款開放給所有 AI 公司、化解與 Anthropic 的僵局。
這不是一場單純的商業簽約。它牽涉三條紅線——禁止大規模國內監控、禁止自主武器、禁止無人類監督的高風險自動決策(如「社會信用」式系統);也牽涉一家堅持紅線的公司被列為「供應鏈風險」的爭議,以及合同條款是否真的堵死了國內監控的質疑。Techdirt 等媒體指出,協議中關于情報活動須符合《行政命令 12333》等法律的表述,可能為 NSA 式監控留下解釋空間;OpenAI 則反駁:「部署架構比合同措辭更重要」,云上部署、自有安全棧與人員在場,才是真正的護欄。
最關鍵的爭議是:在「降級沖突」與「守住紅線」之間,OpenAI 選了一條什么路?Altman 在 X 上坦言:若此舉真能緩和國防部與行業的關系,「我們會看起來像天才」;若不能,「我們會繼續被說成倉促、不謹慎。」以下是整場風波的核心內容編譯。
一、從談崩到簽約:五角大樓與 AI 公司的 48 小時
2 月 27 日(周五),國防部與 Anthropic 的談判破裂。國防部長皮特·赫格塞斯(Pete Hegseth)宣布將 Anthropic 列為「供應鏈風險」(supply-chain risk to national security)——這是美國首次將本國 AI 公司列入此類 designation,且被廣泛解讀為對「談不攏」的報復。同日,特朗普要求聯邦機構在六個月過渡期后停止使用 Anthropic 的技術;受影響的還包括與國防部有往來的軍事承包商,他們若繼續使用 Anthropic 產品,將難以再與國防部合作。
幾小時后,OpenAI 宣布已與五角大樓達成協議,允許在機密環境中部署其模型。奧爾特曼強調,OpenAI 與 Anthropic 一樣堅持兩條紅線:禁止大規模國內監控、禁止在無人類責任的情況下將 AI 用于自主武器;此外 OpenAI 還多了一條:禁止用于高風險自動決策(如「社會信用」式系統)。但既然 Anthropic 談崩、OpenAI 談成,輿論自然追問:OpenAI 是否在條款上做了妥協?紅線是否只是「寫在紙上的政策」?
OpenAI 在 2 月 28 日發布博客《我們與戰爭部的協議》,詳述了協議框架與三條紅線,并稱其保障「比此前任何機密 AI 部署協議(包括 Anthropic 曾討論的)都更多」。3 月 1 日,TechCrunch 等媒體綜合該文、Altman 在 X 上的 AMA 以及國安合作負責人卡特里娜·穆里根(Katrina Mulligan)在 LinkedIn 的說明,將「為什么能簽成」「紅線如何落地」的爭議推到臺前。
二、三條紅線:不能用于監控、自主武器與「社會信用」
OpenAI 在官方說明中明確列出與國防部合作的三條紅線:
禁止將 OpenAI 技術用于大規模國內監控(mass domestic surveillance)。
禁止用于操控自主武器系統(direct autonomous weapons systems)。
禁止用于高風險自動決策(high-stakes automated decisions),例如「社會信用」類系統。
公司強調,與其他一些在國安場景中「削弱或移除安全護欄、主要依賴使用政策」的 AI 公司不同,OpenAI 通過「更廣泛、多層」的方式保護這些紅線:保留對安全棧的完全裁量權、僅通過云部署、有獲得許可的 OpenAI 人員參與、并在合同中有強約束;此外還有美國既有法律與政策的約束。
合同正文中約定:戰爭部可將 AI 系統用于「一切合法用途」,但須符合適用法律、作戰要求及既有安全與監督規范;不得在法律規定需人類控制的場景中獨立操控自主武器,也不得替代需人類決策者批準的高風險決策。對于情報活動,對私人信息的處理須符合第四修正案、《1947 年國家安全法》《1978 年外國情報監視法》、行政命令 12333 等,且不得對美國公民進行無約束的私人信息監控,也不得用于國內執法(除非符合《地方武裝法》等規定)。正是「合法用途 + 12333」的表述,引發了后續關于「國內監控是否被默許」的爭議。
三、「云上部署」為什么是關鍵:不能直接上武器與邊緣設備
OpenAI 和穆里根多次強調:「部署架構比合同措辭更重要。」
在 LinkedIn 上,穆里根寫道:很多人假定「站在美國人與大規模國內監控、自主武器之間的,只是一份合同里的一條使用政策」——「現實不是這樣運作的。」通過將部署限定在云 API,可以確保模型無法被直接集成進武器系統、傳感器或其他作戰硬件;自主武器通常需要在邊緣(edge)做推理,而云上部署在架構上就排除了這類用途。
官方博客也寫明:這是僅限云端的部署,由 OpenAI 運行包含上述原則在內的安全棧;既不是「無護欄」或未做安全訓練的模型,也不會把模型部署到邊緣設備上——后者一旦允許,就可能出現用于自主致命武器的可能。部署架構使 OpenAI 能夠獨立核查紅線是否被突破,包括運行和更新分類器。
Altman 在 X 上回答「為何國防部接受了 OpenAI 而沒接受 Anthropic」時表示:OpenAI 相信分層安全——建立安全棧、派駐前向部署工程師(FDE)、讓安全與對齊研究人員參與、通過云部署、與戰爭部直接協作;而 Anthropic 似乎更依賴合同中的具體禁止條款,而非引用既有法律。他個人「寧愿只選一樣的話,更依賴技術保障而非文件」;并稱若 Anthropic 愿意,現有條款已可對包括他們在內的其他實驗室開放。
四、Altman 認了:「節奏倉促,觀感不好」——但我們想降級沖突
3 月 1 日(周六)下午,Altman 在 X 上開放提問,直面五角大樓協議引發的批評。當被問「為什么簽得這么急?觀感顯然不好」時,他直接回應:
「節奏確實倉促,觀感也不好。我們真的很想給局勢降溫,而且我們認為擺在桌上的這份協議是好的。如果我們判斷對了,這能促成戰爭部與行業之間的降級,我們會看起來像天才,也是一家承受了很多痛苦去幫行業做事的公司;如果不是,我們會繼續被形容成倉促、不謹慎。我不知道最后會落在哪邊,但我已經看到一些積極的跡象。」
他解釋,把 Anthropic 列為供應鏈風險「對行業、對國家、對他們公司都會非常糟糕」,OpenAI 在簽約前后都向戰爭部表明了反對,并希望「他們撤銷這一決定」;若因強烈批評而招致壓力,「那就這樣吧」。關于「為何你們能簽、Anthropic 不能」,他再次強調:條款并不相同,但 OpenAI 談成的條款現已可提供給 Anthropic 及其他實驗室。
當被問「若政府違反合同你們會關停嗎」時,Altman 說:會。在那種「非常不可能」的情況下會關停;但他們相信美國政府會盡力遵守法律與政策。「我們不會因為不同意某次(合法的軍事)決策就關停——我們尊重其權威。」
五、Anthropic 的代價:供應鏈風險、聯邦停用與「激進左派」標簽
與 OpenAI 簽約形成對照的,是 Anthropic 的處境。談判破裂的焦點在于:國防部要求 Claude 可用于「一切合法用途」,包括無人類監督的自主致命武器和大規模監控;Anthropic CEO 達里奧·阿莫代伊(Dario Amodei)拒絕,堅持兩條不可妥協的紅線——不用于自主武器、不用于對美國公民的大規模國內監控。
后果迅速落地:聯邦機構與軍事承包商被要求在六個月內剝離 Anthropic 產品;「供應鏈風險」designation 意味著任何使用 Anthropic 產品的公司與國防部的合作都會受阻;Anthropic 表示將在法庭上挑戰該 designation;特朗普將 Anthropic 稱為「激進左派」「woke」,而生命未來研究所(Future of Life Institute)等機構則贊揚其堅守 AI 倫理立場。OpenAI 在博客中寫道:「我們不知道 Anthropic 為何沒能達成這份協議,希望他們和更多實驗室會考慮(我們談成的)條款。」
六、爭議與反駁:國內監控到底有沒有被「留口子」?
Techdirt 的 Mike Masnick 在 Bluesky 上指出:協議中寫明的情報活動須符合行政命令 12333 等法律,而 12333 常被解讀為 NSA 通過境外截獲包含美國公民信息的通信而進行監控的依據——因此「協議并未排除國內監控」。這一批評把「合法」與「道德/隱私」之間的張力擺上臺面。
OpenAI 的回應集中在兩點:1. 法律與合同:合同已明確將大規模國內監控排除在合法用途之外,并引用現行 surveillance 與 autonomy 相關法律與政策;且合同將當前法律與政策的狀態寫進條款,即使未來法律或政策變更,對 OpenAI 系統的使用仍須符合協議所載的現有標準。2. 架構與人員:穆里根強調,部署架構比單一條款更能限制濫用;云 API 限制 + 前向部署工程師 + 對使用方式的可見性 + 可隨時迭代的安全措施,使 OpenAI 比「僅靠一紙合同」有更大影響力與洞察濫用的能力。Altman 在 AMA 中明確表示:「這份協議能否讓戰爭部用 OpenAI 模型對美國公民進行大規模監控?不能。」依據是安全棧、合同措辭以及嚴格限制戰爭部國內監控的既有法律,再加上 OpenAI 人員在場。
48 小時的劇情遠未塵埃落定:一家因紅線而談崩、被列為供應鏈風險并遭聯邦停用;一家快速簽約并公開承認「節奏倉促、觀感不好」,把賭注押在「降級沖突」與「多層保障」上。OpenAI 反復強調已請求政府將同等條款開放給所有 AI 公司并解決與 Anthropic 的僵局;Altman 也明確反對將 Anthropic 列為供應鏈風險,稱「這是戰爭部一個非常糟糕的決定,希望他們撤銷」。
對關心 AI 與國防、隱私與安全邊界的讀者來說,值得記住的幾點是:合同里的「合法用途」必須結合具體法律與部署方式一起看;「僅云部署 + 自有安全棧 + 人員在場」是 OpenAI 自辯紅線可執行的核心論據;而國內監控是否被 12333 等法律留了口子,仍是外界與 NGO 會持續追問的問題。對行業而言,先例已經打開:一家美國 AI 公司因拒絕放寬紅線而被列為供應鏈風險,另一家則選擇在「更多護欄」的前提下與國防部合作。若 OpenAI 的判斷成真——此舉能緩和政府與實驗室的關系并讓更多公司獲得可接受的條款——它會被視為「扛下罵名換行業空間」;若不能,爭議會長期伴隨這份協議。正如 Altman 所說:「我不知道最后會落在哪邊。」2026 年,這條邊界會如何被繼續重劃,只能留給時間驗證。
原文與信源:
OpenAI 官方說明 https://openai.com/index/our-agreement-with-the-department-of-war/
TechCrunch 報道 https://techcrunch.com/2026/03/01/openai-shares-more-details-about-its-agreement-with-the-pentagon/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.