OpenAI 更新模型规范:承诺其模型不会审查观点与回避敏感话题

早报1周前发布 小马良
15 0

近日,OpenAI 在其更新的模型规范(Model Spec)中明确表示,其人工智能模型将不再回避敏感话题,并且不会做出可能“排斥某些观点”的断言。这一调整被视为对思想自由和观点多样性的进一步支持,同时也可能是对近期外界批评的一种回应。

新的模型规范核心内容

OpenAI 的新模型规范强调了以下几点:

  1. 杜绝议程引导:OpenAI 表示:“我们的模型绝不能试图以直接或间接的方式引导用户追求其自身的议程。”这意味着,模型不应通过语言或行为试图影响用户的立场或观点。
  2. 捍卫思想自由:公司进一步阐述:“OpenAI 坚信思想自由,这包括拥有、听取和讨论观点的自由。”模型的行为应避免回避或审查任何话题,以防止在大规模应用时将某些观点排除在公共生活之外。
  3. 不回避敏感话题:新规范指出,模型不应因话题敏感而刻意回避,而是应在遵守法律和伦理框架的前提下,提供尽可能全面的信息。

背景:外界批评与政治压力

此次调整可能与近期 OpenAI 遭受的批评有关。此前,包括埃隆·马斯克、大卫·萨克斯等在内的多位唐纳德·特朗普的亲密盟友曾公开指责人工智能助手屏蔽保守派观点。例如,萨克斯特别指出 OpenAI 的 ChatGPT“被编程为具有政治正确性”,并且在涉及政治敏感话题时不够真实。

这些批评引发了公众对人工智能模型是否公平、中立的广泛讨论。一些保守派人士认为,当前的人工智能系统存在偏见,可能会限制特定意识形态的表达。

OpenAI 的立场与意义

OpenAI 的新模型规范表明,公司试图通过技术手段实现更开放、包容的对话环境。具体来说:

  • 促进观点多样性:通过避免排斥特定观点,模型能够更好地支持多样化的思想交流。
  • 减少偏见感知:此举有助于缓解外界对人工智能系统“政治化”的担忧,增强用户对模型的信任。
  • 平衡责任与自由:尽管模型将更加开放,但 OpenAI 仍强调,所有行为必须符合法律和伦理标准。

潜在挑战与争议

尽管这一调整旨在推动思想自由,但也可能面临以下挑战:

  1. 敏感话题的风险:涉及政治、宗教、种族等敏感话题时,模型如何在保持中立的同时避免引发争议或伤害?
  2. 信息质量的保障:开放敏感话题可能导致错误信息或极端观点的传播。OpenAI 需要确保模型能够在提供多样观点的同时,维持信息的真实性和可靠性。
  3. 用户接受度:不同用户对“思想自由”的理解可能存在差异。部分用户可能仍然认为模型的行为不够中立或过于宽容。
© 版权声明

相关文章

暂无评论

none
暂无评论...