围绕 OpenAI 是否应无限期保留 ChatGPT 用户数据 的争议再度升级。作为其与《纽约时报》版权诉讼的一部分,《纽约时报》向法院提出动议,要求 OpenAI 暂停删除所有可能包含其新闻内容的用户输入数据。
这一要求引发了 OpenAI 对用户隐私保护原则的重大担忧。OpenAI 首席运营官 Brad Lightcap 作出公开回应,称该命令“与我们对用户的隐私承诺存在根本性冲突”,并表示公司将对此提出上诉。
事件背景:一场关于版权与数据的法律拉锯战
早在2023年,《纽约时报》就因指控 OpenAI 在未经许可的情况下使用其新闻内容训练大型语言模型(如 GPT 系列)而提起诉讼。这起案件不仅涉及 AI 训练数据的合法性问题,也触及了更广泛的生成式 AI 是否侵犯版权的核心议题。
此次《纽约时报》进一步提出:
要求 OpenAI 无限期保留所有可能引用其新闻内容的 ChatGPT 用户输入数据,以备未来法庭举证使用。
这意味着,即使用户已设置“历史记录关闭”或选择不保存聊天记录,相关数据仍需被保留,直到法院裁决完成。
OpenAI 的立场:隐私优先,反对“过度要求”
面对这一要求,OpenAI 明确表达了反对立场:
“这与我们对用户的隐私承诺存在根本性冲突。它背弃了长期以来的隐私规范并削弱了隐私保护。”
OpenAI 首席运营官 Brad Lightcap 强调,无限期保留用户数据违背了公司一贯坚持的数据最小化原则和行业通用的隐私标准。
为此,OpenAI 已采取以下措施:
- 向地方法官提交动议,请求重新考虑此命令;
- 向地区法院提出正式上诉;
- 在最终判决前,将受影响数据存储于一个独立安全系统中,仅限经过审计的法律与安全部门访问。
哪些用户会受到影响?
根据 OpenAI 的最新声明,以下用户和服务将受到该法院命令影响:
| 服务类型 | 是否受影响 |
|---|---|
| ChatGPT 免费版 | ✅ 是 |
| ChatGPT Plus / Pro / Teams | ✅ 是 |
| 使用 OpenAI API(无零数据保留协议)的开发者 | ✅ 是 |
以下用户不受此变更影响:
| 服务类型 | 不受影响原因 |
|---|---|
| ChatGPT 企业版 | 已启用“零数据保留”策略 |
| ChatGPT 教育版 | 同样遵循严格数据保护政策 |
| 使用零数据保留端点的 API 客户 | 数据不会被长期存储 |
目前,ChatGPT 的周活跃用户已超过 4亿,其中相当一部分用户或将受到此次法院命令的影响。
技术与伦理的平衡:隐私 vs. 法律合规
此次事件凸显了一个日益严峻的问题:在 AI 发展过程中,如何在用户隐私、数据权利与法律合规之间取得平衡?
OpenAI 表示,他们一直致力于遵守法律程序,但同时也必须坚守对用户隐私的承诺。这种张力在未来可能会成为更多 AI 平台面临的共同挑战。
OpenAI 的核心主张包括:
- 数据最小化原则:只在必要时间内保留必要的数据;
- 用户控制权:允许用户选择是否保存对话记录;
- 透明机制:仅在合法合规的前提下响应政府或法院请求。
行业视角:此举是否设下危险先例?
有专家指出,《纽约时报》的要求若被法院采纳,可能为其他媒体机构或版权持有者开启类似法律路径,导致 AI 公司被迫长期保留大量用户数据,从而增加隐私泄露风险。
这也引发广泛讨论:
- 如果所有版权方都能以此类理由要求平台保留用户数据,是否会破坏现有的隐私保护体系?
- 用户是否还能信任 AI 提供商关于“数据不留存”的承诺?
这些问题的答案,将在未来几个月的法律审理中逐步明晰。
一场关于 AI、版权与隐私的多维度博弈
OpenAI 与《纽约时报》之间的这场法律交锋,远不止是一起简单的版权纠纷。它揭示了 AI 技术发展过程中不可避免的三大核心矛盾:
- 版权归属与训练数据的合法性
- 用户隐私与数据留存的边界
- 司法介入与平台责任的界定
随着 AI 技术深入各行各业,这类法律与伦理问题将越来越多地浮出水面。OpenAI 此次的回应,不仅是对用户隐私的一次捍卫,也是对未来 AI 监管方向的一次重要表态。















