OpenAI 与五角大楼协议细节披露:以“云部署”和“安全堆栈”构筑防线,回应自主武器与监控质疑

早报5小时前发布 小马良
3 0

在 Anthropic 与美国国防部(五角大楼)的谈判破裂,甚至面临被列为“供应链风险”的背景下,OpenAI 迅速达成了一项在机密环境中部署其先进 AI 系统的协议。这一举动引发了业界的广泛质疑:OpenAI 是否为了商业利益牺牲了安全原则?其承诺的“红线”是否只是纸上谈兵?

面对舆论压力,OpenAI CEO 萨姆·奥尔特曼(Sam Altman)承认协议是“匆忙达成”且“表面看不太好”,但公司随后发布详细博客文章,阐述了其独特的“多层次防御”策略,试图证明其方案比竞争对手更安全、更可控。

三大不可逾越的“红线”

OpenAI 在博客中明确重申了其与国防部合作的三条核心红线,这也是许多前沿 AI 实验室的共识:

  1. 禁止大规模国内监控:不得利用 OpenAI 技术对美国公民进行无差别监控。
  2. 禁止指挥自主武器系统:不得将模型用于完全自主的致命性武器决策。
  3. 禁止高风险自动决策:不得用于类似“社会信用”评分等高风险自动化系统。

OpenAI 强调,与其他一些为了国家安全部署而“减少或移除安全护栏”、仅依赖“使用政策”作为保障的公司不同,OpenAI 坚持通过技术架构合同条款的双重锁定来确保红线不被突破。

核心防御机制:为何 OpenAI 能签而 Anthropic 不能?

针对“为何 Anthropic 失败而 OpenAI 成功”的疑问,OpenAI 国家安全合作伙伴关系负责人卡特里娜·穆里根(Katrina Mulligan)指出,关键在于部署架构而非单纯的合同文字。

1. 纯云部署(Cloud-Only Deployment)

这是最关键的技术护栏。OpenAI 的模型仅通过云端 API 提供服务,绝不部署在边缘设备(如无人机、导弹或其他作战硬件上)。

  • 意义:自主武器系统通常需要低延迟的边缘计算能力。通过强制云端部署,OpenAI 从物理架构上切断了模型直接控制致命武器的可能性。
  • 验证能力:云端部署允许 OpenAI 运行和更新分类器,独立验证是否有违规请求发生。

2. 保留完整的安全堆栈(Safety Stack)

OpenAI 对部署的安全措施拥有完全的自由裁量权

  • 这意味着国防部无法获得“无护栏”或未经过安全训练的裸模型。
  • 所有请求都必须经过 OpenAI 的安全过滤系统,确保输出符合伦理和安全标准。

3. 人员参与与审查

协议规定,经过严格背景审查的 OpenAI 工程师、安全和对齐研究人员将直接参与国防部的机密项目。这不仅提供了技术支持,更是一种实时的监督机制。

合同条款的法律约束

除了技术限制,OpenAI 公布的合同条款也极具针对性:

  • 关于自主武器:明确规定在任何法律或政策要求人为控制的场景下,AI 不得独立指挥武器。引用了国防部指令 3000.09,要求自主系统必须经过严格的验证、确认和测试(V&V)。
  • 关于监控:明确禁止利用该系统对美国人的私人信息进行无限制监控。任何情报活动必须遵守第四修正案、《外国情报监视法》(FISA)及第 12333 号行政命令。
  • 法律冻结条款:合同明确引用了当前存在的法律和政策标准。即使未来法律放宽,对该系统的使用仍必须符合签约时的严格标准。

争议与回应:真的能杜绝监控吗?

尽管 OpenAI 极力辩护,质疑声仍未平息。Techdirt 的迈克·马斯尼克(Mike Masnick)指出,合同中提及的第 12333 号行政命令实际上允许 NSA 在境外截获通信,其中可能包含美国人信息,因此“绝对允许进行国内监控”。

对此,奥尔特曼在社交媒体 X 上回应称,这是一次“赌注”:

“我们真的很想让事态降温……如果我们是正确的,这确实导致国防部与行业之间的紧张关系缓和,我们将被视为天才。如果不是,我们将继续被描述为仓促和不谨慎。”

奥尔特曼表示,OpenAI 的初衷是缓和政府与 AI 行业的紧张关系,并希望政府能将同样的条款提供给所有 AI 实验室,包括 Anthropic。他明确表示反对将 Anthropic 列为“供应链风险”。(来源

© 版权声明

相关文章

暂无评论

none
暂无评论...