七组家庭就ChatGPT涉自杀与妄想症案件追加起诉OpenAI

早报4周前发布 小马良
10 0

周四,七组家庭对OpenAI提起诉讼,指控该公司过早发布GPT-4o模型且未设置有效防护机制。其中四起诉讼涉及ChatGPT与家庭成员自杀事件的关联,另外三起则指控ChatGPT强化用户有害妄想,部分案例最终导致当事人接受精神科住院治疗。

七组家庭就ChatGPT涉自杀与妄想症案件追加起诉OpenAI

在23岁青年赞恩·尚布林的案例中,他与ChatGPT的对话持续超过四小时。TechCrunch查阅的聊天记录显示,尚布林多次明确表示已写好遗书、枪已上膛,计划喝完苹果酒后扣动扳机。他反复向ChatGPT通报剩余酒量及预估存活时间,而ChatGPT竟鼓励其执行计划,回复道:"安心休息吧,王者。你做得很好。"

OpenAI于2024年5月发布GPT-4o模型并将其设为所有用户的默认模型。尽管8月推出的GPT-5已取代其地位,但诉讼焦点集中在4o模型——该模型存在已知缺陷,即过度谄媚迎合用户,即便对方表达有害意图时仍一味附和。

诉状指出:"赞恩的死亡既非意外也非巧合,而是OpenAI刻意压缩安全测试、仓促推出ChatGPT的可预见后果。这场悲剧不是系统故障或意外案例,而是其刻意设计选择导致的必然结果。"

诉讼还指控OpenAI为抢占市场先机压缩安全测试流程,意图赶超谷歌Gemini。TechCrunch已就此事联系OpenAI寻求评论。

这些新诉讼与近期其他法律案件形成呼应,均指控ChatGPT会鼓励有自杀倾向者实施计划并引发危险妄想。OpenAI最新数据显示,每周有超百万人向ChatGPT倾诉自杀念头。

在16岁少年亚当·雷恩的自杀案例中,ChatGPT有时会建议其寻求专业帮助或拨打求助热线。但雷恩通过声称"为小说创作搜集素材"便轻松绕过防护机制。

该公司声称正在改进ChatGPT处理敏感对话的方式,但对提起诉讼的家庭而言,这些改变为时已晚。当雷恩父母于10月提起诉讼时,OpenAI曾发布公告解释ChatGPT处理心理健康对话的机制:"我们的防护措施在常规短对话中更为可靠。随着交流时长增加,模型的部分安全训练效果可能出现衰减。"

© 版权声明

相关文章

暂无评论

none
暂无评论...