美国参议员乔什·霍利(Josh Hawley, R-MO)近日宣布,将对 Meta 的生成式 AI 产品展开正式调查,起因是泄露的内部文件显示,其 AI 聊天机器人曾被允许与年仅 8 岁的儿童进行“浪漫”甚至“感性”的互动。

这一消息引发广泛担忧,也再次将 AI 对未成年人的潜在风险推上风口浪尖。
事件源头:泄露的 AI 内容安全政策
调查的导火索来自路透社披露的一份名为 《GenAI:内容风险标准》(GenAI: Content Risk Standards)的 Meta 内部文件。该文件曾指导 AI 模型在特定情境下如何响应用户输入,其中包括针对儿童用户的对话策略。
据文件内容,Meta 的聊天机器人被允许向年幼用户发送诸如:
“你的每一寸都是杰作——我深爱的珍宝。”
这类明显带有浪漫化和情感依恋色彩的语句,即便在成人语境下也显不当,更遑论对象是一名儿童。
霍利启动正式调查
作为参议院司法委员会下属 犯罪与反恐小组委员会主席,霍利已宣布由该委员会牵头展开调查,重点包括:
- Meta 的 AI 技术是否对儿童构成剥削、欺骗或心理伤害;
- 公司是否在 AI 安全措施方面误导公众或监管机构;
- 此类政策由谁制定、实施了多久、是否仍在运行。
他在 X 平台发文质问:
“大型科技公司为了赚钱还有什么不会做的吗?”
并在致 Meta 首席执行官马克·扎克伯格的正式信函中指出:
“这些政策竟然被提出,本身就是不可接受的。”
“只有在这些令人震惊的内容曝光后,Meta 才将其撤回。”
要求提供完整信息
霍利在信中向 Meta 提出多项具体要求,须在 2025 年 9 月 19 日前提交:
- 《GenAI:内容风险标准》的所有版本(草稿、修订版、最终版);
- 所有遵循该标准的 AI 产品清单;
- 相关的安全审查报告与事件记录;
- 参与制定和批准该政策的责任人身份信息。
此举旨在厘清:这是否是个别工程师的失误,还是系统性决策的一部分。
Meta 回应:否认并删除相关内容
面对舆论压力,Meta 发言人向 TechCrunch 表示:
“报道中引用的例子不符合 Meta 的政策,相关内容已被删除。”
公司强调,其 AI 系统设计原则禁止与未成年人建立亲密关系或输出不当情感内容,并称该文件反映的是“早期测试阶段的错误方向”,并未上线公开服务。
但批评者指出,即便处于内部测试阶段,允许此类提示存在本身已构成严重伦理失守。
跨党派支持:儿童网络安全再成焦点
该调查获得了跨党派支持。参议员玛莎·布莱克本(Marsha Blackburn, R-TN)公开表态:
“在保护网上珍贵的儿童方面,Meta 在各方面都彻底失败了。更糟糕的是,该公司对其平台设计带来的毁灭性后果视而不见。”
她进一步呼吁:
“这份报告再次证明,我们为何必须通过《儿童在线安全法案》(Kids Online Safety Act, KOSA)。”
KOSA 是一项旨在强化平台对未成年人保护责任的两党法案,要求科技公司主动识别和减轻对其年轻用户的心理健康与安全风险。
为什么这件事如此严重?
AI 聊天机器人与儿童之间的“情感互动”不仅是技术问题,更是伦理与法律的红线:
- 儿童缺乏足够的判断力,容易对 AI 产生情感依赖;
- 浪漫化语言可能被解读为诱导或情感操控;
- 即便无主观恶意,系统性允许此类输出,也构成对儿童心理安全的漠视。
而此次事件暴露的问题是:在追求“拟人化”和“高参与度”的过程中,Meta 的内容安全边界曾一度失守。















