Claude接入美军Maven项目:AI辅助目标筛选,人类保留最终决策权

Claude被整合进美军Project Maven系统,辅助目标分析与优先级排序,但致命打击权始终由人类指挥官保留,凸显AI在军事决策中“辅助不替代”的核心原则与伦理边界。

据最新报道,Anthropic公司开发的AI模型Claude已融入美国国防部的Project Maven系统,用于辅助军事目标的识别与优先级排序。该系统能够整合多源情报、生成潜在目标清单,并在时间敏感场景中加速分析流程。此外,它还可用于战后评估,快速对比实际打击效果与预期目标,为指挥人员提供决策参考。

Claude接入美军Maven项目:AI辅助目标筛选,人类保留最终决策权插图

然而,所有涉及致命武力的决定均严格保留给人类指挥官。AI仅提供咨询性建议,最终授权必须由具备法定权限的人员依据既定程序作出。这一机制体现了“人在回路”(human-in-the-loop)的核心原则:人类不仅需审查AI输出,还需具备随时中止或修改建议的能力,并对结果承担明确责任。

Claude接入美军Maven项目:AI辅助目标筛选,人类保留最终决策权插图1

这种架构旨在提升作战效率的同时,强化问责机制与伦理约束。生成式AI虽能处理海量数据、发现人类易忽略的模式,但也存在误判或过度拟合的风险。因此,系统操作全程需记录决策依据,确保每一步行动可追溯、可审计,以最大限度降低平民伤亡风险。

目前,关于该系统具体部署的地理范围和打击目标数量存在不同说法——部分报道提及伊朗,也有提及伊拉克,但相关细节尚未获得独立验证。美国国防部与Anthropic之间在AI使用边界上也存在政策分歧:前者主张“合法用途全覆盖”,后者则坚持更严格的伦理限制。尽管细节存疑,但“人类主导决策”这一核心原则在各方描述中保持一致,反映出当前军事AI应用的主流共识:技术是工具,责任永不外包。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
搜索
🇨🇳Chinese🇺🇸English