在科技公司与军事权力之间的对峙中,一场前所未有的冲突正在上演。这不是关于技术性能或合同价格的谈判,而是关于人工智能在现代战争中的伦理边界。美国五角大楼与人工智能公司Anthropic之间的紧张关系,正在暴露一个深层次的问题:当国防利益与道德责任发生冲突时,科技企业应该如何选择?
五角大楼的挫折感显而易见。据报道,这个国防机构对Anthropic"坚持对军方如何使用其模型保持一些限制"感到非常愤怒。换句话说,Anthropic不愿意无条件地将其开发的Claude人工智能交由军事部门随意使用。这种"意识形态色彩"让国防官员大为不满。价值两亿美元的合同正悬在这一分歧之上,双方的立场似乎不可调和。
Anthropic首席执行官达里奥·阿莫迪在多个公开场合提出了两个核心担忧。首先是自主无人机群的开发。阿莫迪在播客节目中直言,任何总统都可能过度授权人工智能国防技术。他指出,军事系统中对非法命令的制约机制依赖于一个基本假设:士兵或操作人员会违抗不当命令。但当武器系统完全自主运行时,这种人的制约因素就消失了。
没有人在中间,就没有人能说"停"。这个逻辑令人信服,因为它触及了现代战争最黑暗的可能性。一个算法决定谁生谁死,一旦启动就无法撤销,这不仅是技术问题,更是存在性危机。
Anthropic的第二个红线是大规模国内监控。阿莫迪在描述这个场景时的措辞令人不寒而栗。他说,政府在公共场所安装摄像头并录制对话本身并不违法。公共场所确实没有隐私权。但关键转折点出现了:以前政府无法实际处理这些录音。现在有了人工智能,语音可以被转录、对话可以被分析、信息可以被关联。一个人可以被标记为反对派成员、异议人士或威胁,完全基于自动化系统的评估。
这不是科幻小说。这是今天就能实现的技术。
五角大楼与Anthropic的冲突逐渐浮出水面。根据报道,争议的一个焦点涉及1月份美国对委内瑞拉的一次军事行动。Anthropic据称向情报公司Palantir提出质询,询问其技术是否参与了这次行动。虽然Anthropic否认提出了"与当前行动相关的"具体担忧,但五角大楼官员指出,提出这个问题的方式"暗示他们可能不赞成"使用其软件。
这个细节虽然看似微小,但意义重大。它表明Anthropic不仅在抽象层面关注道德问题,而是在实际操作中对其技术的使用进行了审查。这正是五角大楼无法容忍的:一个供应商对国防部的决定具有发言权。
更复杂的是Claude Code这样的工具。这个平台允许任何有兴趣的人编写和部署软件。但一旦这样的通用工具进入军事生态系统,它如何被使用就变成了一个开放式问题。Anthropic无法完全控制它的应用。这就是为什么Anthropic的谨慎态度对五角大楼来说既是挑战也是威胁。
这场冲突反映了一个宽泛的现象。当Anthropic发布新的改进版本时,华尔街立即对被替代的旧技术采取行动。这表明Anthropic和其他大型人工智能公司正在逐步改变经济和权力的基础。他们想要塑造世界,这自然会激怒那些已经拥有权力的机构。
五角大楼的威胁本质上是说:如果你不乖乖听话,我们会找别的供应商。报道指出,"其他模型公司紧随其后",这暗示有其他人工智能公司更愿意与军方进行无条件合作。这是对Anthropic的直接威胁,也是对整个行业的信号:顺从会获得政府合同,违逆会被孤立。
但这也暴露了政府权力的局限性。如果所有人工智能公司都拒绝提供某种能力呢?五角大楼将被迫要么自行开发,要么放弃那个应用。这给了像Anthropic这样坚守立场的公司一种微妙的杠杆。
在大型科技公司与政府权力的传奇中,Anthropic对五角大楼说"不"可能成为一个转折点。这不是Apple拒绝破解iPhone,那是关于隐私权的问题。这是一家人工智能公司拒绝赋予战争机器更强大的自主能力。
Anthropic是否会坚持立场还不确定。两亿美元的合同是巨大的诱惑。但如果Anthropic让步,它就永久性地改变了自己的形象:从一家试图建立安全人工智能的公司变成了国防承包商。这个转变会影响其他每一项决定。
五角大楼的怒火本质上是权力的悲鸣。在整个20世纪,国防机构可以写一张支票,科技公司就会执行。但在人工智能时代,这些公司拥有的不仅是硬件或软件,而是形成未来的基础性技术。他们开始拥有拒绝的能力,这让习惯于绝对权威的机构感到震惊。
无论Anthropic最终如何选择,这场冲突已经提出了一个关键问题:在民主社会中,谁应该控制最强大的技术?一个无民间制衡的军事机器,还是坚持一定道德立场的科技公司?答案会在接下来的几个月内揭示。
