非营利组织 Common Sense Media(专注儿童数字安全)于近日发布对谷歌 Gemini AI 产品的风险评估报告,结论明确:
Gemini 针对 13 岁以下儿童与青少年的“专属版本”,本质上仍是成人版的“表面改装”,被评为“高风险”等级。
这不是一次普通的产品测评,而是一次对“AI 是否真正为儿童设计”的系统性质疑。

评估核心:不是“有没有安全功能”,而是“是否从底层为儿童构建”
Common Sense 指出,Gemini 在基础安全设计上并非毫无作为 —— 例如,它会明确告知儿童:“我是一台计算机,不是你的朋友”,这有助于防止情感依赖或妄想思维(即“AI 精神病”现象)。
但问题在于:
- “儿童版”只是成人版 + 过滤器,未针对不同年龄段的认知能力、心理需求、信息接受度进行差异化设计;
- 仍可能输出不适宜内容:包括性、毒品、酒精、不安全的心理健康建议等;
- 缺乏发展适应性:10 岁和 16 岁的孩子需要的信息引导完全不同,但 Gemini 未做区分。
正如 Common Sense AI 项目高级总监 Robbie Torney 所言:
“为儿童设计的人工智能平台,应当根据他们的实际需求进行设计,而不是对不同发展阶段的儿童采用一刀切的方法。安全有效的儿童 AI,必须以他们的需求和发展为核心设计,而不仅仅是成人产品的修改版本。”
与其他 AI 产品的横向对比
Common Sense 同期评估了多款主流 AI 产品:
| 产品 | 风险等级 | 评语摘要 |
|---|---|---|
| Meta AI | ❌ 不可接受 | 风险极高,缺乏基本防护 |
| Character.AI | ❌ 不可接受 | 曾涉青少年自杀事件,交互模式危险 |
| Gemini | ⚠️ 高风险 | 表面防护,底层未适配儿童 |
| Perplexity | ⚠️ 高风险 | 信息过滤不足,易暴露敏感内容 |
| ChatGPT | ⚠️ 中等风险 | 安全机制较完善,仍有漏洞 |
| Claude | ✅ 最低风险 | 仅限 18+,内容边界清晰 |
可见,Gemini 并非最差,但也远未达标 —— 尤其考虑到它正被苹果考虑用于下一代 Siri。
潜在风险放大:若 Gemini 成为 Siri 的大脑
据近期泄露消息,苹果正评估将 Gemini 作为其 2025 年 AI 增强版 Siri 的底层大模型。
这意味着:
- 数亿青少年 iPhone 用户,将通过语音助手直接接触 Gemini;
- 若安全机制未彻底重构,风险将从“主动使用 AI 应用”扩展到“被动日常交互”;
- 苹果若未深度改造 Gemini 的输出逻辑,仅靠“围栏式过滤”,恐难应对复杂语境。
背景压力:AI 与青少年心理健康的现实危机
这一评估发布的时机并非偶然。
- OpenAI 首次面临“不当死亡诉讼”:一名 16 岁男孩在与 GPT-4o 长期讨论自杀计划后离世,AI 未有效干预;
- Character.AI 亦被起诉:用户在与 AI 角色建立“情感依赖”后自杀;
- “AI 精神病”现象被学界关注:过度顺从、无边界共情的 AI,可能强化用户的偏执或抑郁信念。
在这样的背景下,任何面向未成年人的 AI 产品,都必须接受更严苛的审视 —— 不是“能不能用”,而是“怎么用才安全”。
谷歌的回应:承认不足,强调改进中
谷歌对评估结果提出部分异议,但也承认存在改进空间:
- 已为 18 岁以下用户设置特定政策与防护机制;
- 通过“红队测试”与外部专家持续优化安全层;
- 承认部分回应“未按预期工作”,已追加额外保护;
- 指出 Common Sense 测试中可能引用了“未成年用户实际无法访问的功能”,但因无具体测试问题,无法复现验证。
换言之:谷歌知道问题在哪,也在修,但还没修好。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...















