谷歌近期将其Gemini人工智能代理系统部署至美国国防部的非密网络环境,旨在辅助日常事务处理与决策支持。此举虽未涉及敏感数据,却引发了关于AI在军事场景中应用边界的重要讨论。

当前部署严格限制于非密网络,主要目的是让军方评估AI系统的稳定性、可靠性及其与现有政策的兼容性。在这一阶段,谷歌为模型设置了明确的安全限制,禁止某些高风险用途,而国防部则主张应支持“所有合法用途”,双方在自主决策权与人类监督的平衡上存在张力。

这一矛盾并非孤立。另一家AI公司Anthropic已公开明确拒绝将其技术用于全自动武器系统或大规模国内监控,这一立场削弱了部分军事AI方案的可行性,也促使五角大楼在采购合同中更强调伦理约束与技术护栏的强制性。
未来是否将AI系统扩展至机密或绝密网络,目前尚无公开时间表。但可以预见的是,国防部在推进技术应用的同时,必须在作战效率与伦理合规之间寻求新的契约框架。科技公司的安全红线与军方的效能诉求,正共同塑造下一代国防AI的政策走向。

