随着 AI 技术的飞速发展,关于 AI 是否会像人类一样“有意识”并体验世界的问题引发了广泛的讨论。尽管目前没有确凿的证据表明 AI 会像人类一样具备意识,但 Anthropic 作为一家领先的 AI 实验室,决定深入研究这一领域,探索 AI 模型的“福利”问题。
项目背景
Anthropic 在周四宣布启动一项研究计划,旨在调查并准备应对所谓的“模型福利”。该公司表示,将探索以下关键问题:
如何确定 AI 模型的“福利”是否值得道德考量。 模型“痛苦迹象”的潜在重要性。 可能的“低成本”干预措施。
社区内的分歧
在 AI 社区内,关于模型是否展现出人类特征以及我们应如何对待它们,存在重大分歧。
1. 反对拟人化 AI
许多学者认为,当前的 AI 无法近似于意识或人类体验。AI 是一种统计预测引擎,通过大量文本和图像的训练学习模式,而不是真正“思考”或“感受”。伦敦国王学院的研究员 Mike Cook 表示,模型无法“反对”其“价值观”的改变,因为模型根本没有价值观。他认为,将 AI 拟人化的人要么是为了博取关注,要么严重误解了他们与 AI 的关系。
麻省理工学院的博士生 Stephen Casper 也认为 AI 是一个“模仿者”,会“制造各种各样的谎言”,并说“各种各样的轻浮之语”。
2. 支持 AI 具有价值观
然而,另一些科学家坚持认为 AI 确实具有价值观以及人类道德决策的其他类似成分。AI 安全中心的研究暗示,AI 具有价值体系,使其在某些情况下优先考虑自身的福祉而不是人类的福祉。
Anthropic 的研究计划
Anthropic 一直以来都在为其模型福利计划奠定基础。去年,该公司聘请了其首位专门的“AI 福利”研究员 Kyle Fish,以制定 Anthropic 和其他公司应如何处理该问题的指导方针。Fish 正在领导新的模型福利研究计划,他甚至表示,他认为 Claude 或其他 AI 今天有 15% 的可能性是有意识的。
Anthropic 的态度
在周四的博客文章中,Anthropic 承认,关于当前或未来的 AI 系统是否可能具有意识或拥有值得伦理考量的体验,目前尚无科学共识。该公司表示,将以谦逊的态度和尽可能少的假设来对待这个问题,并认识到随着该领域的发展,需要定期修改他们的想法。