Anthropic于周一在联邦法院提起两起诉讼,指控特朗普政府将其列为‘供应链风险’的决定构成违宪报复。这一举措源于该公司拒绝允许国防部将其Claude大模型用于全自动武器系统及对美国民众的大规模监控。
根据公司提交的法律文件,其在与国防部谈判时设定了两条明确红线:禁止Claude用于针对美国公民的监控,以及禁止其参与完全自主的武器决策。当谈判破裂后,国防部于2026年3月4日依据10 USC 3252条款,正式将Anthropic列入供应链风险名单,随后总统下令所有联邦机构停止使用其技术,并要求六个月内彻底移除Claude在机密军事系统中的部署。

然而,这一决定引发巨大争议。事实上,Claude至今仍是美国中央司令部在中东地区的核心AI工具,已协助筛选超过一千个作战目标,其技术深度嵌入当前军事行动。这种‘一边使用、一边禁用’的矛盾,被外界视为政策逻辑的严重混乱。
Anthropic在诉状中提出三大法律主张:其一,政府以行政手段惩罚企业基于公共利益表达的AI安全立场,构成对第一修正案言论自由的侵犯;其二,总统单方面命令联邦机构禁用私营企业技术,超越了宪法赋予的行政权力,且无国会授权;其三,公司未获得正当程序保障——CEO达里奥·阿莫代伊指出,公司是通过社交媒体推文首次得知这一决定,而非官方正式通知。

参议员科里·吉伦布兰德在参议院武装部队委员会和情报委员会中公开批评该决定,称其‘滥用本用于应对外国对手的技术管控工具’,并强调Anthropic是首个获此标签的美国本土企业。安全分析师普遍认为,此类评级传统上仅适用于被怀疑植入后门的外国供应商,如今用于国内科技公司,可能削弱美国技术生态的公信力。
尽管该行政令对Anthropic的短期财务影响有限,但其声誉代价极高。这一事件也进一步推动了去中心化AI发展的呼声。若关键AI系统由单一企业掌控,即使其初衷良善,也可能因政治压力被迫放弃安全原则。相比之下,基于区块链的分布式AI协议因无中央控制节点,更能抵御单点胁迫,成为未来构建可信AI基础设施的重要方向。

