2 月 28 日,OpenAI 宣布与美国军方达成协议,允许后者在涉密环境中使用其技术。首席执行官山姆·奥特曼(Sam Altman)表示,相关谈判是在五角大楼公开批评 Anthropic 之后才开始推进的,整个过程“确实很仓促”。
在公开声明中,OpenAI 费尽笔墨强调,公司并未向五角大楼让步、允许其随意使用自家技术。该公司发布博客文章,解释说明协议中明确禁止将其技术用于自主武器和国内大规模监控,奥特曼也表示,公司并非简单接受了 Anthropic 所拒绝的同等条款。
从表面上看,你或许会认为 OpenAI 既拿下了合同,又占据了道德制高点。但细读字里行间和法律措辞,另一番图景便浮现出来:Anthropic 走的是道德路线,赢得了众多支持者,但最终失败;OpenAI 走的是务实的法律路线,对五角大楼的约束实际上更为宽松
目前尚不清楚,在军方于空袭伊朗期间急于推出一份政治化 AI 战略之际,OpenAI 能否真正落实其承诺的安全预防措施,也不清楚这份协议能否令那些希望公司采取更强硬立场的员工满意。在这条钢丝上行走,将会格外艰难。(OpenAI 未就其协议的补充信息请求立即作出回应。)
问题也藏在细节之中。奥特曼表示,OpenAI 能够在 Anthropic 折戟之处达成协议,原因与边界划定关系不大,关键在于方法的差异。“Anthropic 似乎更专注于在合同中设定具体禁止条款,而我们更倾向于援引适用法律,这让我们感到更为自在。”他写道。
OpenAI 表示,愿意与五角大楼合作的依据之一,仅仅是基于政府不会违法这一假设。该公司公开了合同的有限摘录,其中援引了若干与自主武器和监控相关的法律法规,具体到五角大楼 2023 年发布的自主武器指令(该指令并未禁止自主武器,而是就其设计和测试发布了指导方针),宏观到美国宪法第四修正案(该修正案为美国公民提供了反对大规模监控的保护)。
然而,乔治华盛顿大学法学院政府采购法研究副院长杰西卡·蒂利普曼(Jessica Tillipman)写道,公开的合同摘录“并未赋予 OpenAI 像 Anthropic 那样独立禁止合法政府行为的权利”。它仅仅规定,五角大楼不得利用 OpenAI 的技术违反这些现行法律法规。
Anthropic 在这场博弈中赢得众多支持者(包括 OpenAI 的部分员工)的根本原因,在于这些人认为现有规则远远不足以阻止 AI 赋能的自主武器或大规模监控的出现。而以联邦机构不会违法作为保证,对于那些还记得爱德华·斯诺登(Edward Snowden)所揭露的监控行为的人来说,几乎毫无说服力——那些监控行为曾被内部机构认定为合法,直到经历了漫长的法律斗争才被裁定违法(更遑论当前法律框架下允许的、AI 可能进一步扩展的众多监控手段)。在这一层面上,我们本质上回到了原点:允许五角大楼将 AI 用于任何合法目的。
OpenAI 的国家安全合作负责人昨天写道:如果你认为政府不会遵守法律,那么你同样不应该相信它会尊重 Anthropic 所提出的红线。但这并不是反对设定红线的理由。执行不力并不意味着约束毫无意义,合同条款仍然会影响行为、监督机制和政治后果。
OpenAI 还声称其拥有第二道防线。该公司表示,将继续掌控模型安全规则的制定权,不会向军方提供剥离了安全控制功能的 AI 版本。“我们可以将我们的红线——禁止大规模监控、禁止在没有人类介入的情况下指挥武器系统——直接嵌入模型行为之中,”奥特曼委托就此事发言的 OpenAI 员工博阿兹·巴拉克(Boaz Barak)在 X 上写道。
然而,该公司并未具体说明其针对军方的安全规则与面向普通用户的规则有何不同。执行层面的漏洞从来难以避免,而当 OpenAI 首次在涉密环境中部署这些保护措施,并被要求在短短六个月内完成时,执行漏洞尤其难以杜绝。
这一切之下还有另一个问题:科技公司是否应该主动禁止那些合法、但在道德上引起反感的行为?政府显然认为 Anthropic 拒绝扮演这一角色。美国对伊朗发动空袭前八小时的周五晚间,国防部长皮特·赫格塞斯(Pete Hegseth)在 X 上发表措辞强烈的批评。“Anthropic 上演了一堂傲慢与背叛的大师课,”他写道,并响应特朗普总统的命令,宣布政府停止与 Anthropic 合作——此前 Anthropic 试图阻止其模型 Claude 被用于自主武器或国内大规模监控。“战争部必须为每一项合法目的,拥有对 Anthropic 模型完整、不受限制的访问权,”赫格塞斯写道。
除非 OpenAI 的完整合同能揭示更多内容,否则这家公司的立场很难不被解读为:一方面承诺自己确实掌握筹码,并将自豪地运用这些筹码去做它认为正确的事,另一方面又将法律作为限制五角大楼使用其技术的主要底线。
而这两者之间,正构成一种摇摆不定的意识形态平衡。
以下三个方面值得持续关注:
其一,这一立场能否令 OpenAI 内部最具批判性的员工接受。随着 AI 公司在人才争夺上投入巨大,不排除部分 OpenAI 员工将奥特曼的辩护视为一种不可原谅的妥协。
其二,赫格塞斯誓言对 Anthropic 发动的“焦土行动”。他的举措远不止于取消政府与该公司的合同,还宣布将 Anthropic 列为供应链风险,并称"任何与美国军方有商业往来的承包商、供应商或合作伙伴,均不得与 Anthropic 开展任何商业活动"。关于这一致命一击是否具有法律依据,各方存在重大争议,Anthropic 已表示若威胁付诸实施将提起诉讼,OpenAI 也公开表态反对这一举措。
其三,在对伊朗空袭持续升级之际,五角大楼将如何处置 Claude?Claude 是目前五角大楼在涉密行动中唯一积极使用的 AI 模型,相关行动甚至涵盖委内瑞拉的部分任务。赫格塞斯给予了六个月的过渡期,期间军方将逐步引入 OpenAI 的模型以及马斯克旗下 xAI 的模型。
然而,据报道,禁令发布数小时后,Claude 仍被用于对伊朗的空袭行动,这表明淘汰过渡绝非易事。即便 Anthropic 与五角大楼长达数月的对峙已告一段落(我对此持怀疑态度),我们如今看到的是:五角大楼的 AI 加速计划正在向各公司施压,迫使它们放弃曾经划定的边界,而中东地区的新一轮紧张局势正成为这场博弈的首要试验场。
https://www.technologyreview.com/2026/03/02/1133850/openais-compromise-with-the-pentagon-is-what-anthropic-feared/

