五角大楼与Anthropic谈判破裂 坚持AI技术无限制使用
Anthropic CEO反对军方要求 引发AI伦理立场对决
人工智能公司Anthropic首席执行官达里奥·阿莫代伊周四表示,该公司"无法凭良心接受"五角大楼要求扩大其技术使用的条款。这款AI聊天机器人Claude的开发商声明称,虽未退出谈判,但国防部最新合同草案"在防止Claude用于大规模监控美国人或完全自主武器系统方面几乎没有取得进展"。
五角大楼首席发言人肖恩·帕内尔同日强调,军方希望合法使用Anthropic的AI技术,不会允许该公司在周五截止日期前单方面设定限制。他在社交媒体表示,五角大楼"无意用AI大规模监控美国人(此为非法行为),也不寻求开发无需人类参与的自主武器系统"。
这场对峙源于Anthropic现行政策明确禁止其模型用于上述用途。该公司是最后一家未向美军新型内部网络提供技术的顶级AI企业——此前五角大楼已与谷歌、OpenAI及埃隆·马斯克的xAI签订合同。帕内尔称,全面开放技术使用是为了避免"危及关键军事行动",并强硬表态:"我们不会让任何公司决定作战决策的条款。"
在X平台的后续发文中,帕内尔设定最后通牒:"Anthropic需在周五东部时间下午5:01前作出决定,否则我们将终止合作,并将其列为国防部的供应链风险。"
OpenAI表态支持红线 行业联合或重塑军企合作
这场争议引发连锁反应。OpenAI CEO萨姆·奥特曼在内部备忘录中明确,将坚持与Anthropic相同的伦理红线:禁止AI用于大规模监控和自主致命武器。若谷歌等头部企业跟进,将极大复杂化五角大楼替换Claude的计划——该模型是首个集成至军方最敏感工作的AI系统,更标志着美国顶级AI领袖首次就政府技术使用边界采取集体立场。
尽管展现行业团结,奥特曼仍强调希望与五角大楼达成协议,允许ChatGPT用于敏感军事场景。这种矛盾姿态暗示,若五角大楼真的将Anthropic列为"供应链风险",OpenAI或将成为替代者。目前僵局凸显科技伦理与国家安全需求的深层碰撞,可能重新定义军商AI合作的游戏规则。











