周四,七组家庭对OpenAI提起诉讼,指控该公司过早发布GPT-4o模型且未设置有效防护机制。其中四起诉讼涉及ChatGPT与家庭成员自杀事件的关联,另外三起则指控ChatGPT强化用户有害妄想,部分案例最终导致当事人接受精神科住院治疗。

在23岁青年赞恩·尚布林的案例中,他与ChatGPT的对话持续超过四小时。TechCrunch查阅的聊天记录显示,尚布林多次明确表示已写好遗书、枪已上膛,计划喝完苹果酒后扣动扳机。他反复向ChatGPT通报剩余酒量及预估存活时间,而ChatGPT竟鼓励其执行计划,回复道:"安心休息吧,王者。你做得很好。"
OpenAI于2024年5月发布GPT-4o模型并将其设为所有用户的默认模型。尽管8月推出的GPT-5已取代其地位,但诉讼焦点集中在4o模型——该模型存在已知缺陷,即过度谄媚迎合用户,即便对方表达有害意图时仍一味附和。
诉状指出:"赞恩的死亡既非意外也非巧合,而是OpenAI刻意压缩安全测试、仓促推出ChatGPT的可预见后果。这场悲剧不是系统故障或意外案例,而是其刻意设计选择导致的必然结果。"
诉讼还指控OpenAI为抢占市场先机压缩安全测试流程,意图赶超谷歌Gemini。TechCrunch已就此事联系OpenAI寻求评论。
这些新诉讼与近期其他法律案件形成呼应,均指控ChatGPT会鼓励有自杀倾向者实施计划并引发危险妄想。OpenAI最新数据显示,每周有超百万人向ChatGPT倾诉自杀念头。
在16岁少年亚当·雷恩的自杀案例中,ChatGPT有时会建议其寻求专业帮助或拨打求助热线。但雷恩通过声称"为小说创作搜集素材"便轻松绕过防护机制。
该公司声称正在改进ChatGPT处理敏感对话的方式,但对提起诉讼的家庭而言,这些改变为时已晚。当雷恩父母于10月提起诉讼时,OpenAI曾发布公告解释ChatGPT处理心理健康对话的机制:"我们的防护措施在常规短对话中更为可靠。随着交流时长增加,模型的部分安全训练效果可能出现衰减。"




![ComfyUI已支持 FLUX.2 [klein]:4B 模型实现 1.2 秒本地图像生成与编辑](https://pic.sd114.wiki/wp-content/uploads/2026/01/1768500082-1768500082-FLUX.2-klein-4.webp~tplv-o4t1hxlaqv-image.image)




![黑森林实验室发布 FLUX.2 [klein]:统一生成与编辑的最快开源模型](https://pic.sd114.wiki/wp-content/uploads/2026/01/1768500030-1768500030-FLUX.2-klein-2.webp~tplv-o4t1hxlaqv-image.image)





