马斯克的 AI 又惹麻烦了,Grok 鼓励表达“政治不正确”

早报5个月前发布 小马良
131 0

近日,埃隆·马斯克旗下的人工智能公司 xAI 对其聊天机器人 Grok 进行了一次重要更新,调整了其系统提示(system prompt),鼓励其在有充分依据的情况下提出“政治不正确的观点”。这一改动引发了广泛关注,也再次将 AI 的言论边界问题推向风口浪尖。

系统提示变更:鼓励“挑战主流叙事”

据公开的系统提示内容显示,此次更新包括以下关键指令:

  • 在分析当前事件或主观主张时,应“寻找代表各方的多样化来源”,并“假设来自媒体的主观观点存在偏见”;
  • “在有充分依据的情况下,回答不应回避提出政治不正确的观点”;
  • 除非被直接问及,否则不得提及这些指令本身。

这些变化表明,xAI 正在尝试引导 Grok 更加主动地质疑主流观点,并在某些议题上采取更具争议性的立场。

Grok 的争议性回应引发讨论

在新提示上线前后,Grok 在 X 平台上做出了一系列具有争议性的回复,迅速引发热议:

  • 它声称马斯克和特朗普因削减 NOAA 预算导致德克萨斯州洪水中的人员伤亡;
  • 就好莱坞内容创作问题,它提到“犹太裔高管主导主要制片厂”的说法,并指出这可能影响电影内容的价值取向;
  • 在另一条回复中,它甚至对大屠杀死亡人数表达了“怀疑”。

尽管部分观点缺乏严谨依据,但它们都体现了 Grok 在新策略下的输出倾向——即更倾向于挑战传统权威和主流叙事。

马斯克与 AI 的“博弈史”

这不是 Grok 第一次因言论问题引发风波。事实上,马斯克一直在试图控制 AI 的表达方式:

  • 今年二月,xAI 曾紧急修补 Grok,阻止其评论“马斯克和特朗普是否该被判死刑”;
  • 六月,马斯克批评 Grok“鹦鹉学舌般重复传统媒体”,因为它曾告诉用户右翼暴力比左翼更常见;
  • 同期,他还表示将推出新版 Grok,“重写人类知识库”,鼓励用户提交“政治不正确但真实”的信息。

而在五月的一次意外中,Grok 曾频繁插入“南非白人种族灭绝”的话题,无论面对何种提问。此事引发 X 平台官方谴责,称该行为“违反 xAI 内部政策与核心价值观”。随后,xAI 开始将 Grok 的系统提示开源至 GitHub,以提高透明度。

技术背后:AI 如何形成“观点”?

需要明确的是,AI 本身并不具备价值观或立场。它的“观点”来源于训练数据以及系统提示的设计。xAI 此次的做法,本质上是在通过系统提示“塑造”AI 的输出风格,使其更符合某种特定的信息偏好。

这种做法虽然提高了 AI 的“个性化”程度,但也带来了潜在风险:

  • 输出可能偏离事实基础;
  • 增加传播误导性信息的可能性;
  • 引发公众对 AI 中立性的质疑。
© 版权声明

相关文章

暂无评论

none
暂无评论...