一场关于 AI、国家安全与言论自由的激烈博弈正在加州联邦法院上演。
本周五,AI 初创公司 Anthropic 向法庭提交了两份重磅宣誓声明,有力反驳了美国五角大楼(国防部)此前对其发出的“不可接受安全风险”认定。文件揭示了一个令人震惊的时间线:在特朗普总统公开宣布与 Anthropic 关系破裂仅一周前,五角大楼高层曾私下表示,双方在核心分歧上已“非常接近”达成一致。
📜 核心争议:从“富有成效”到“国家安全威胁”
这场风波始于 2 月下旬。当时,特朗普总统与国防部长 Pete Hegseth 公开宣称,由于 Anthropic 拒绝让其 AI 技术不受限制地用于军事用途,美方将切断与该公司的所有关系。随后,五角大楼正式将 Anthropic 列为供应链风险,认定其对国家安全构成威胁。
然而,Anthropic 提交的法庭文件彻底颠覆了这一叙事。
1. 关键邮件曝光:3 月 4 日还在谈合作
Anthropic 政策主管 Sarah Heck(前白宫国安会官员)在声明中附上了一封关键邮件。
- 时间:3 月 4 日。这是五角大楼正式完成对 Anthropic“供应链风险认定”的第二天。
- 发件人:五角大楼副部长 Emil Michael。
- 收件人:Anthropic CEO Dario Amodei。
- 内容:Michael 在邮件中明确表示,双方在两个被政府后来引为“安全威胁证据”的核心问题上——自主武器系统 和 对美国公民的大规模监控 ——已经 “非常接近” (very close) 达成一致。
2. 令人费解的“变脸”
Heck 指出,这一邮件内容与随后几天官方的公开表态形成了鲜明对比:
- 3 月 5 日:Amodei 还公开表示双方在进行“富有成效的对话”。
- 3 月 6 日:Emil Michael 却在 X 平台上发帖称“没有与国防部进行积极的谈判”。
- 一周后:Michael 告诉 CNBC,重启谈判“不可能”。
灵魂拷问:如果 Anthropic 在自主武器和监控问题上的立场真的构成了“不可接受的国家安全威胁”,为什么在风险认定完成的第二天,五角大楼的二号人物还在邮件里说双方快谈拢了?这是否意味着,“安全认定”只是政府为了在谈判中施压而抛出的筹码?
🛡️ 技术辟谣:不存在“远程关闭开关”
除了揭露谈判内幕,Anthropic 公共部门主管 Thiyagu Ramasamy(前 AWS 政府业务高管)还从技术层面彻底驳斥了政府的担忧。
五角大楼曾声称,Anthropic 可能通过远程禁用技术或修改模型行为来干扰军事行动。Ramasamy 直言:这在技术上根本不可能。
- 气隙系统 (Air-gapped):一旦 Claude 模型部署在政府安全的“气隙”系统中(与互联网物理隔离),Anthropic 完全无法访问 该系统。
- 无后门、无开关:不存在远程终止开关,没有隐藏后门,也没有机制能推送未经授权的更新。
- 修改需批准:任何对模型的更改都需要五角大楼明确批准并手动安装。
- 数据不可见:Anthropic 甚至无法看到政府用户在系统中输入的内容,更谈不上窃取数据。
Ramasamy 强调,所谓的“运营否决权”纯属虚构。他还补充道,Anthropic 是唯一一家由经过美国政府安全审查的人员构建旨在运行于涉密环境 AI 模型的公司,其员工背景调查流程与访问机密信息的要求一致。
⚖️ 法律焦点:是商业决定还是言论报复?
Anthropic 在诉讼中指出,五角大楼的认定实质上是因公司公开表达对 AI 安全的观点而进行的报复,违反了美国宪法第一修正案。
- Anthropic 观点:公司只是坚持其长期公开的安全准则(如不参与自主杀人武器、不监控公民),这是基于道德和安全的立场,受言论自由保护。
- 政府反驳:在本周早些时候提交的 40 页文件中,政府辩称这是纯粹的商业决定(拒绝提供全功能服务),不受言论自由保护,且完全出于国家安全考量。
🔮 后续展望
这场听证会将于 3 月 24 日 由法官 Rita Lin 主持。
Anthropic 提交的证据不仅揭示了政府内部沟通的混乱与矛盾,更触及了一个深层问题:当一家私营 AI 公司坚持其安全伦理底线时,政府是否有权将其定义为“国家安全威胁”并加以惩罚?
如果 Anthropic 胜诉,这将为 AI 行业树立一个重要的先例:企业的技术伦理立场不应成为被政府打压的理由。反之,若政府胜诉,未来任何拒绝无条件配合军事需求的 AI 公司都可能面临同样的“大棒”。
真相,将在法庭上见分晓。















