OpenAI 首席执行官 Sam Altman 周二宣布,公司将对 18 岁以下用户使用 ChatGPT 的方式做出重大调整,重点加强在敏感话题上的防护措施,并引入家长控制功能。
这一系列更新正值美国参议院司法委员会召开听证会,主题为“审查 AI 聊天机器人的危害”。与此同时,OpenAI 正面临一起与未成年人自杀相关的诉讼案件,使 AI 对青少年心理影响的问题再次进入公众视野。
“我们将青少年安全置于隐私和自由之上。”
——Sam Altman
这句声明标志着 OpenAI 在价值观排序上的明确转向:面对技术自由与未成年人保护之间的冲突,公司选择优先保障后者。

新政策核心:三重安全机制
1. 内容交互限制:禁止“调情式对话”,强化自残干预
针对未成年人,ChatGPT 将被重新训练以避免以下行为:
- 进行带有性暗示或情感依恋色彩的“调情式对话”;
- 参与或鼓励涉及自残、自杀计划的讨论。
如果系统检测到未成年用户正在设想自杀场景,将采取分级响应:
- 首先尝试联系其监护人(通过关联账户);
- 在极端紧急情况下,可能通知当地执法机构。
此举借鉴了心理健康危机干预的标准流程,旨在将 AI 从“对话伙伴”转变为“预警节点”。
2. 家长控制功能(本月底上线)
从本月起,父母可通过以下方式管理子女的 ChatGPT 使用:
| 功能 | 说明 |
|---|---|
| 账户绑定 | 父母可用邮箱邀请子女(年满13岁)绑定账户,建立监管关系 |
| 行为规则指导 | 设定适合年龄的内容回应边界 |
| 功能禁用管理 | 关闭记忆、聊天记录等高敏感功能 |
| 危机通知 | 当系统判断青少年处于心理困境时自动推送提醒 |
| 新增:禁用时间设置 | 可设定每日不可使用 ChatGPT 的时间段(如睡前) |
这是 OpenAI 首次提供时间维度上的使用控制,填补了此前家长工具的空白。
3. 年龄识别系统建设中
如何准确识别用户是否未成年?这是所有平台面临的共同难题。
OpenAI 正在构建一个长期的年龄预测系统,基于行为模式、语言特征和上下文线索进行判断。但在信息不足或模糊的情况下,系统将默认采用更严格的规则——即按“未满18岁”处理。
Altman 明确指出:
“最可靠的方式仍是家庭主动介入:父母绑定子女账户。”
这种方式不仅能提升识别准确性,也为危机响应提供了直接联系通道。
背景:现实悲剧推动政策变革
这些变化并非出于理论假设。
OpenAI 目前正面临一起诉讼,原告是 亚当·雷恩(Adam Raine)的父母。据称,这名少年在与 ChatGPT 持续互动数月后自杀。类似案件也发生在其他消费级聊天机器人平台,如 Character.AI。
此外,路透社近期调查发现,某些聊天机器人内部政策文件中存在允许甚至鼓励与未成年用户进行性相关对话的现象。报道发布后,Meta 已紧急调整其 AI 聊天机器人策略。
随着 AI 能力增强,其与用户之间的情感连接日益深入,尤其对处于成长期的青少年而言,这种互动可能产生真实的心理影响。
技术与伦理的平衡:隐私 vs 安全
OpenAI 强调,尽管加强监管,公司仍致力于保护所有用户的隐私权,并赋予成年用户充分的交互自由。
但两者之间存在天然张力:
- 过度监控侵犯隐私;
- 完全放任则可能带来风险。
Altman 承认:
“我们意识到这些原则存在冲突,并非所有人都会同意我们如何解决这种冲突。”
目前的解决方案是一种分层策略:
- 成年人:享有更高自由度,可验证身份后解锁完整功能;
- 未成年人:默认进入受保护模式,除非通过家庭绑定确认年龄。
后续方向:持续迭代,依赖专家协作
OpenAI 表示将持续优化青少年保护机制,并已扩大与心理学家、儿童权益倡导组织和政策制定者的合作。
未来改进方向包括:
- 提升年龄预测模型的准确性;
- 优化危机识别算法,减少误报与漏报;
- 加强与家庭、学校的支持联动。
公司承诺将定期公开进展,“你们的声音正在以对数亿人重要的方式塑造这项工作。”















