五角大楼拟将 Anthropic 列为“供应链风险”,或禁用 Claude 模型

早报7小时前发布 小马良
3 0

据 Axios 报道,美国国防部正准备采取一项罕见举措:将 AI 公司 Anthropic 列为“供应链风险”。一旦实施,任何希望与美军合作的承包商都必须证明其工作流程中未使用 Anthropic 的 Claude 模型——这在实际操作中几乎不可能,因为美国十大企业中有八家已部署 Claude。

五角大楼拟将 Anthropic 列为“供应链风险”,或禁用 Claude 模型

更关键的是,Claude 目前是唯一获准在美军机密系统中运行的商业大模型,并在今年 1 月委内瑞拉马杜罗突袭行动中被实际使用。五角大楼官员曾多次公开称赞其能力。

冲突根源:AI 使用条款的“红线”之争

过去数月,五角大楼与 Anthropic 就军方使用 Claude 的条款展开激烈谈判。核心分歧在于:

  • Anthropic 坚持限制两类用途
    1. 不得用于大规模监控美国公民
    2. 不得用于开发无需人工干预的自动开火武器
  • 五角大楼则要求“所有合法用途”无条件开放,认为 Anthropic 的限制“过于 restrictive”,且在实战场景中存在大量灰色地带,难以执行。

一位五角大楼高级官员直言:“断绝关系将是一个巨大的麻烦,我们将确保他们为迫使我们采取这一行动付出代价。”值得注意的是,此类“供应链风险”认定通常用于外国对手企业,而非美国本土公司。

更广泛的博弈

五角大楼此举不仅是针对 Anthropic,更是向其他 AI 巨头传递信号。目前:

  • OpenAI、谷歌、xAI 已同意在非机密系统中移除安全限制
  • 但在机密系统中,仍只有 Claude 获准使用

一位政府官员承认,其他模型在“专用政府应用”上“落后一步”,突然切换将带来巨大技术风险。但五角大楼相信,其余三家公司最终会接受“所有合法用途”标准。

商业与安全的两难

尽管五角大楼威胁取消价值 2 亿美元 的合同(占 Anthropic 年收入 140 亿的一小部分),但真正的影响在于生态隔离:若被列为供应链风险,Anthropic 将被排除在美国国防工业体系之外,连带影响其企业客户。

Anthropic 发言人回应称,双方仍在进行“富有成效的、真诚的对话”,并重申公司支持国家安全的承诺。CEO 达里奥·阿莫迪被描述为“务实主义者”,愿意调整条款,但坚守伦理底线。

© 版权声明

相关文章

暂无评论

none
暂无评论...