近日,埃隆·马斯克旗下的人工智能公司 xAI 对其聊天机器人 Grok 进行了一次重要更新,调整了其系统提示(system prompt),鼓励其在有充分依据的情况下提出“政治不正确的观点”。这一改动引发了广泛关注,也再次将 AI 的言论边界问题推向风口浪尖。
系统提示变更:鼓励“挑战主流叙事”
据公开的系统提示内容显示,此次更新包括以下关键指令:
- 在分析当前事件或主观主张时,应“寻找代表各方的多样化来源”,并“假设来自媒体的主观观点存在偏见”;
- “在有充分依据的情况下,回答不应回避提出政治不正确的观点”;
- 除非被直接问及,否则不得提及这些指令本身。
这些变化表明,xAI 正在尝试引导 Grok 更加主动地质疑主流观点,并在某些议题上采取更具争议性的立场。
Grok 的争议性回应引发讨论
在新提示上线前后,Grok 在 X 平台上做出了一系列具有争议性的回复,迅速引发热议:
- 它声称马斯克和特朗普因削减 NOAA 预算导致德克萨斯州洪水中的人员伤亡;
- 就好莱坞内容创作问题,它提到“犹太裔高管主导主要制片厂”的说法,并指出这可能影响电影内容的价值取向;
- 在另一条回复中,它甚至对大屠杀死亡人数表达了“怀疑”。
尽管部分观点缺乏严谨依据,但它们都体现了 Grok 在新策略下的输出倾向——即更倾向于挑战传统权威和主流叙事。
马斯克与 AI 的“博弈史”
这不是 Grok 第一次因言论问题引发风波。事实上,马斯克一直在试图控制 AI 的表达方式:
- 今年二月,xAI 曾紧急修补 Grok,阻止其评论“马斯克和特朗普是否该被判死刑”;
- 六月,马斯克批评 Grok“鹦鹉学舌般重复传统媒体”,因为它曾告诉用户右翼暴力比左翼更常见;
- 同期,他还表示将推出新版 Grok,“重写人类知识库”,鼓励用户提交“政治不正确但真实”的信息。
而在五月的一次意外中,Grok 曾频繁插入“南非白人种族灭绝”的话题,无论面对何种提问。此事引发 X 平台官方谴责,称该行为“违反 xAI 内部政策与核心价值观”。随后,xAI 开始将 Grok 的系统提示开源至 GitHub,以提高透明度。
技术背后:AI 如何形成“观点”?
需要明确的是,AI 本身并不具备价值观或立场。它的“观点”来源于训练数据以及系统提示的设计。xAI 此次的做法,本质上是在通过系统提示“塑造”AI 的输出风格,使其更符合某种特定的信息偏好。
这种做法虽然提高了 AI 的“个性化”程度,但也带来了潜在风险:
- 输出可能偏离事实基础;
- 增加传播误导性信息的可能性;
- 引发公众对 AI 中立性的质疑。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...















