AI公司Anthropic,旗下拥有大模型Claude,近期因与美国国防部在军事AI使用边界上的严重分歧,面临巨额商业损失风险。这场冲突源于去年七月一项价值2亿美元的军方合同,五角大楼要求Claude具备“所有合法用途”的访问权限,但Anthropic CEO Dario Amodei明确划出两条红线:拒绝开发完全自主的致命武器系统,也禁止用于对美国公民的大规模监控。这一立场遭到军方拒绝,随后国防部下令立即停用Claude,并在六个月内完成系统过渡;随后,联邦政府所有机构也被指令停止使用Anthropic技术。

这一决定暴露出美军在关键AI系统中对单一供应商的高度依赖。据内部人士透露,在针对伊朗的军事行动中,由Palantir构建、整合了Claude的“Maven智能系统”曾被用于快速识别目标,系统突然中断曾引发对作战安全的严重担忧。这一事件揭示出美军AI基础设施的脆弱性。

尽管遭遇政府封锁,Anthropic的商业表现依然强劲。其企业收入规模在数月内从90亿美元跃升至约200亿美元,得益于企业客户对Claude Code等产品的广泛采用。今年二月,公司完成300亿美元融资,由新加坡淡马锡和Coatue领投,巩固了其作为全球最值钱私营AI企业的地位。Anthropic方面表示,政府行为正在“摧毁一家全球增长最快私营公司所创造的经济价值”。
与此同时,五角大楼迅速转向其他AI供应商。OpenAI已获得与Claude同等的机密级访问权限,Elon Musk旗下xAI也进入军事系统评估流程,与谷歌的谈判同步推进。有官员坦言:“我们需要冗余,不能再依赖单一供应商。”但与Anthropic不同,OpenAI的协议被指仅设“薄弱安全层”,难以有效约束滥用可能。
值得注意的是,Anthropic的伦理立场反而增强了其市场声誉。消费者与企业客户对其品牌信任度上升,下载量与商业合作谈判明显加速。这场争端不仅是一场商业危机,更触发了科技界对AI治理核心问题的深度反思:谁有权决定AI的应用边界?坚守安全伦理的企业,是否终将成为行业标准的定义者?

