随着AI技术的快速发展,其安全性一直是行业内外关注的焦点。然而,近期,一位前 OpenAI 政策主管公开指责该公司篡改其AI安全叙事,引发了广泛讨论。
OpenAI 的安全叙事引发争议
OpenAI 一直以来都在积极推进其雄心勃勃的技术愿景,尤其是在面临 DeepSeek 等竞争对手的挑战时,其作为AI领域领先者的地位受到一定威胁。为了保持领先地位,OpenAI 一直在追求通用AI(AGI)的发展,并声称超级AI代理是下一个重大突破。然而,该公司在平衡技术发展与安全责任方面的做法,近期受到了来自内部的质疑。
前政策主管的公开指责
迈尔斯·布伦戴奇(Miles Brundage)曾长期担任 OpenAI 的政策研究主管,他对公司的安全叙事提出了严厉批评。布伦戴奇指出,OpenAI 最近发布的文件中,强调了其AI模型的谨慎迭代部署方法,并以 GPT-2 的逐步推出为例。然而,他认为这种说法与事实不符,并指责 OpenAI 改写了AI安全的历史。

GPT-2 发布的争议
OpenAI 在文件中提到,GPT-2 的发布是其谨慎部署AI模型的典型案例。该公司声称,通过逐步发布 GPT-2,他们从现有系统中学习经验,以确保未来系统的安全性。文件中指出:“在一个不连续的世界里,安全经验来自于对今天系统的过度谨慎。我们将第一个 AGI 视为一系列用途不断增加的系统中的一个点。在连续的世界里,使下一个系统安全和有益的方法是从当前系统学习。”

然而,布伦戴奇对此表示强烈反对。他认为,GPT-2 的发布本身就是渐进式的,OpenAI 在每个阶段都与社区分享了见解,并且安全专家也认可了该公司在处理该模型时的谨慎态度。布伦戴奇强调,过去的谨慎并非过度,而是必要且负责任的。
对 AGI 叙事的担忧
布伦戴奇进一步表达了对 OpenAI 声称 AGI 将以渐进式步骤而非突然突破的方式开发的担忧。他认为,OpenAI 正在歪曲 GPT-2 发布的历史,并试图改写安全叙事。他担心该公司发布文件的真正目的是为了制定一个标准,或者将安全问题视为过度反应,从而掩盖潜在的巨大风险,尤其是在AI系统取得更多进展的情况下。
行业内的持续争议
这并非 OpenAI 首次因优先考虑技术进步和利润而非长期安全而受到批评。像布伦戴奇这样的专家指出,这种权衡是否合理值得深思。他们强调,如果不谨慎处理AI安全问题,未来可能会引发严重的后果。