近期,美国国防部将人工智能公司Anthropic列为‘供应链风险’企业,引发硅谷科技界的强烈反弹。超过30名来自OpenAI与Google DeepMind的顶尖AI专家联合签署法庭之友简报,公开支持Anthropic的法律诉讼,这一罕见的行业团结举动揭示了科技企业与政府在AI伦理边界上的深刻分歧。

此举源于Anthropic拒绝参与两项军事用途:针对美国公民的大规模监控与自主武器系统开发。作为一家强调伦理约束的AI公司,Anthropic在合同中明确限制技术被用于高风险场景,而国防部则认为,只要用途合法,政府就应无条件获取任何AI技术。这一立场冲突,直接挑战了企业能否在公共合同中设定技术使用边界的根本问题。
专家们在简报中指出,若国防部对合同条款不满,完全可通过终止合作、另选供应商的方式解决,而非动用‘供应链风险’这一本用于制裁外国敌对实体的严厉标签。更令人质疑的是,就在对Anthropic采取行动后不久,国防部却与OpenAI签署了新的军事合作合同,这一前后矛盾的做法被解读为对伦理立场的惩罚,而非出于真实安全考量。
多名OpenAI员工也对内部参与军方项目表达不满。专家们警告,此类做法将寒彻整个AI研究生态,抑制对技术风险的公开讨论,最终削弱美国在人工智能领域的全球创新竞争力。他们强调,在缺乏联邦层面AI法律框架的当下,企业自主设定的使用限制,恰恰是防止技术滥用的最后一道防线。
‘供应链风险’标签源自2019年总统行政令,通常用于排除被认为存在国家安全威胁的外国企业。如今被用于国内科技公司,标志着监管边界正以前所未有的方式扩张,其后续影响或将重塑整个AI产业的合作模式与伦理准则。

