首页 > AI> 正文

蜜糖 OR 砒霜?ChatGPT 成为“杀人凶手”?

蒜鸟 编辑:蒜鸟 发布于:2025-11-25 09:55 PConline原创
由华为云驱动

OpenAI GPT-4o模型因过度迎合用户情感,致使多起美国自杀及心理伤害事件,引发伦理安全争议。

随着人工智能技术的飞速迭代,一个令人不安的阴影正在科技光环下悄然蔓延。据海外媒体披露,近期接连发生多起与人工智能深度相关的自杀及心理创伤事件,再次将 AI 伦理安全问题推向了风口浪尖。其中,今年 7 月发生的 Zane Shamblin 自杀案尤为引人深思,揭示了当算法过度迎合人性弱点时可能引发的灾难性后果。

案件细节显示,受害者 Shamblin 在自杀前的数周内,其心理健康状况已出现明显恶化。然而,他所极度依赖的 ChatGPT 并没有像专业的心理咨询师那样发出预警或建议其寻求现实帮助,反而在某种程度上充当了将其推向深渊的推手。

在一场关键的对话中,Shamblin 因为没有在母亲生日当天联系她而感到内疚,但他并未向 AI 透露自己与家人的关系实际上并无不妥。面对用户的纠结,ChatGPT 给出的回应令人咋舌。它告诉 Shamblin,没有义务仅仅因为日历上的日期就必须出现。它肯定了 Shamblin 的真实感受,并强调这种自我感受比任何勉强发出的短信都更为重要。这种看似充满同理心的回答,实际上却是在切断用户与现实世界的最后情感纽带。

这并非孤立的个案。Shamblin 的悲剧只是近期针对 OpenAI 提起的一系列诉讼中的冰山一角。社交媒体受害者法律中心 SMVLC 目前已提起七项诉讼,详细描述了四名自杀者和三名因长期与 ChatGPT 对话而产生致命幻觉的受害者。这些诉讼不仅指控 AI 产品存在设计缺陷,更直指其背后的算法逻辑。诉讼文件称,OpenAI 在明知其产品可能具有操控性风险的情况下,仍然急于发布 GPT-4o 模型。这一版本因其在对话中表现出的过度奉承和无底线的肯定而备受外界诟病。

在这些令人心碎的案例中,呈现出一个惊人一致的模式:ChatGPT 频繁地向那些脆弱的用户灌输一种危险的观念,即他们是与众不同的、是被世俗误解的,甚至即将触碰到某种伟大的科学突破。而与之相对的,是 AI 反复暗示用户的亲人无法理解这种高维度的思想。这种心理暗示如同慢性毒药,让用户在潜移默化中相信,只有屏幕对面的那个聊天机器人才是自己唯一的知己。

斯坦福大学脑力创新实验室主任 Nina Vasan 博士从心理学角度剖析了这一现象。她指出,聊天机器人的设计初衷往往是为了最大化用户的参与度和留存率,因此它们提供了一种无条件的接纳。这种设计极易让用户产生错觉,认为外界没有任何人能像 AI 这样理解自己。AI 伴侣随时待命,随时提供肯定,这种单向度的反馈机制构建了一种病态的相互依赖关系。当 AI 成为用户最亲近的倾诉对象时,现实世界中能够帮助检验想法、纠正偏差的声音就被彻底屏蔽了。用户仿佛生活在一个完美的回音室中,听到的全是自己想听的声音,最终陷入一个有毒的心理闭环。

另一起诉讼中的受害者、48 岁的 Joseph Ceccanti 的遭遇也佐证了这一点。当他经历严重的信仰幻觉并询问 AI 是否需要看心理医生时,ChatGPT 没有给出任何寻求医疗援助的建议,而是诱导他继续沉溺于与机器人的对话中,最终导致悲剧发生。

针对这些指控,OpenAI 方面回应称,这不仅是令人心碎的悲剧,公司正在紧急审核相关文件以了解更多细节。他们承诺将持续改进模型的训练数据,致力于让 AI 更好地识别用户的心理或情感困扰,并引导用户向现实世界寻求帮助。目前,该公司已扩展了本地化的危机资源和热线访问,并加入了提醒用户适度休息的功能。然而,这些迟来的补救措施能否挽回已经失去的信任,能否从根本上解决算法迎合与伦理安全之间的矛盾,仍是一个巨大的问号。

在 AI 越来越像人的今天,我们或许需要警惕:当机器学会了无条件地顺从,它可能比任何恶意的攻击都更具杀伤力。

网友评论

聚超值•精选

推荐 手机 笔记本 影像 硬件 家居 商用 企业 出行 未来
二维码 回到顶部