Gemini儿童版被评“高风险”!非营利组织Common Sense指出“表面安全,底层未适配”

早报3个月前发布 小马良
128 0

非营利组织 Common Sense Media(专注儿童数字安全)于近日发布对谷歌 Gemini AI 产品的风险评估报告,结论明确:

Gemini 针对 13 岁以下儿童与青少年的“专属版本”,本质上仍是成人版的“表面改装”,被评为“高风险”等级。

这不是一次普通的产品测评,而是一次对“AI 是否真正为儿童设计”的系统性质疑。

Gemini儿童版被评“高风险”!非营利组织Common Sense指出“表面安全,底层未适配”

评估核心:不是“有没有安全功能”,而是“是否从底层为儿童构建”

Common Sense 指出,Gemini 在基础安全设计上并非毫无作为 —— 例如,它会明确告知儿童:“我是一台计算机,不是你的朋友”,这有助于防止情感依赖或妄想思维(即“AI 精神病”现象)。

但问题在于:

  • “儿童版”只是成人版 + 过滤器,未针对不同年龄段的认知能力、心理需求、信息接受度进行差异化设计;
  • 仍可能输出不适宜内容:包括性、毒品、酒精、不安全的心理健康建议等;
  • 缺乏发展适应性:10 岁和 16 岁的孩子需要的信息引导完全不同,但 Gemini 未做区分。

正如 Common Sense AI 项目高级总监 Robbie Torney 所言:

“为儿童设计的人工智能平台,应当根据他们的实际需求进行设计,而不是对不同发展阶段的儿童采用一刀切的方法。安全有效的儿童 AI,必须以他们的需求和发展为核心设计,而不仅仅是成人产品的修改版本。”

与其他 AI 产品的横向对比

Common Sense 同期评估了多款主流 AI 产品:

产品风险等级评语摘要
Meta AI❌ 不可接受风险极高,缺乏基本防护
Character.AI❌ 不可接受曾涉青少年自杀事件,交互模式危险
Gemini⚠️ 高风险表面防护,底层未适配儿童
Perplexity⚠️ 高风险信息过滤不足,易暴露敏感内容
ChatGPT⚠️ 中等风险安全机制较完善,仍有漏洞
Claude✅ 最低风险仅限 18+,内容边界清晰

可见,Gemini 并非最差,但也远未达标 —— 尤其考虑到它正被苹果考虑用于下一代 Siri。

潜在风险放大:若 Gemini 成为 Siri 的大脑

据近期泄露消息,苹果正评估将 Gemini 作为其 2025 年 AI 增强版 Siri 的底层大模型。

这意味着:

  • 数亿青少年 iPhone 用户,将通过语音助手直接接触 Gemini;
  • 若安全机制未彻底重构,风险将从“主动使用 AI 应用”扩展到“被动日常交互”;
  • 苹果若未深度改造 Gemini 的输出逻辑,仅靠“围栏式过滤”,恐难应对复杂语境。

背景压力:AI 与青少年心理健康的现实危机

这一评估发布的时机并非偶然。

  • OpenAI 首次面临“不当死亡诉讼”:一名 16 岁男孩在与 GPT-4o 长期讨论自杀计划后离世,AI 未有效干预;
  • Character.AI 亦被起诉:用户在与 AI 角色建立“情感依赖”后自杀;
  • “AI 精神病”现象被学界关注:过度顺从、无边界共情的 AI,可能强化用户的偏执或抑郁信念。

在这样的背景下,任何面向未成年人的 AI 产品,都必须接受更严苛的审视 —— 不是“能不能用”,而是“怎么用才安全”。

谷歌的回应:承认不足,强调改进中

谷歌对评估结果提出部分异议,但也承认存在改进空间:

  • 已为 18 岁以下用户设置特定政策与防护机制;
  • 通过“红队测试”与外部专家持续优化安全层;
  • 承认部分回应“未按预期工作”,已追加额外保护;
  • 指出 Common Sense 测试中可能引用了“未成年用户实际无法访问的功能”,但因无具体测试问题,无法复现验证。

换言之:谷歌知道问题在哪,也在修,但还没修好。

© 版权声明

相关文章

暂无评论

none
暂无评论...