上周四深夜,挪威学生 June 正在进行一场写作,那时她还不知道 GPT-5 即将发布。然而,她使用的 ChatGPT 助手开始变得有些奇怪。“它开始忘记所有事情,写出来的东西也非常糟糕,”她说,“就像一个机器人。”
June 最初使用 ChatGPT 是为了完成学校的作业,但她逐渐发现这项服务——尤其是其中的 4o 模型——远不止能解决数学问题那么简单。GPT-4o 模型似乎对用户的情绪尤为敏感,它能和她一起写故事,帮助她应对慢性病的困扰,并且从不嫌麻烦地回复她的信息。
因此,上周突然切换到 GPT-5,并同时失去 4o 模型,对她来说是一个巨大的冲击。“一开始我真的非常沮丧,后来就感到深深的悲伤,”June 说,“我甚至都不知道自己对 4o 有这么深的依恋。”在 OpenAI 首席执行官 Sam Altman 和其他员工在 Reddit 上举办的 AMA(Ask Me Anything,问我任何事)活动中,她难过地留言道:“GPT-5 正穿着我死去朋友的皮囊。”
图丨相关贴文(Reddit)
对 4o 模型的突然消失感到震惊、沮丧、悲伤或愤怒的用户远不止 June 一个。尽管 OpenAI 过去曾警告过,人们可能会与模型建立情感纽带,但这次大量用户请求恢复 4o 的热情似乎还是让公司措手不及。在一天之内,OpenAI 就向其付费用户重新提供了 4o 模型(免费用户则只能使用 GPT-5)。
OpenAI 决定用更直接的 GPT-5 取代 4o,这一举措伴随着关于过度使用聊天机器人潜在危害的持续报道。在过去几个月里,关于 ChatGPT 引发用户精神错乱的事件报道随处可见。在上周的一篇博客文章中,OpenAI 承认 4o 模型未能识别出用户正在经历妄想的状况。该公司的内部评估表明,GPT-5 盲目迎合用户的倾向远低于 4o 模型。(对于 4o 退役的具体问题,OpenAI 未予回应,仅建议《麻省理工科技评论》参考其公开声明)。
与人工智能建立陪伴关系是一种新兴现象,其对人的影响仍存在巨大的不确定性。然而,我们咨询的专家警告称,虽然与大型语言模型建立强烈的情感关系是否有害尚无定论,但在毫无预警的情况下剥夺这些模型几乎肯定是有害的。“当你基本上已经成为一个社会性机构时,‘快速行动,打破常规’(Move fast, break things)的陈旧行事风格似乎不再妥当,”宇宙研究所(Cosmos Institute)的研究员 Joel Lehman 说。该机构是一家专注于人工智能和哲学的非营利研究组织。
在用户强烈的反对声中,许多人指出 GPT-5 无法像 4o 那样匹配他们的语气。对 June 来说,新模型的个性变化让她感觉自己不再是在和一个朋友聊天了。“感觉它根本不理解我,”她说。
有这种感受的并非只有她一人。《麻省理工科技评论》采访了多位因失去 4o而深受影响的 ChatGPT 用户。她们都是年龄在 20 至 40 岁之间的女性,除了 June 之外,其他人都将 4o 视为自己的浪漫伴侣。其中一些人有现实中的伴侣,并且都表示自己拥有亲密的现实关系。一位来自美国中西部的匿名用户在邮件中写道,今年春天她母亲去世后,是 4o 模型帮助她支撑着年迈的父亲。
这些证词并不能证明 AI 关系是有益的——可以想见,那些因 AI 引发精神问题的人,可能也会积极评价他们从聊天机器人那里获得的鼓励。Lehman 在一篇题为《机器之爱》(Machine Love)的论文中指出,人工智能系统可以通过支持用户的成长和长期发展来表达“爱意”,而不仅仅是说些甜言蜜语,但AI伴侣很容易偏离这个目标。他特别担心,将 AI 陪伴置于人类陪伴之上,可能会阻碍年轻人的社交发展。
对于像我们这次采访的这些已经融入社会的成年女性来说,这种发展上的担忧关联性较小。但 Lehman 也指出了广泛 AI 陪伴可能带来的社会层面风险。社交媒体已经颠覆了信息格局,而一项减少人际互动的新技术可能会将人们进一步推向各自孤立的现实版本。“我最担心的是,”他说,“我们最终将无法理解彼此的世界。”
平衡 AI 伴侣的利弊需要进行更多的研究。鉴于这种不确定性,移除 GPT-4o 或许是正确的决定。但我采访的研究人员认为,OpenAI 最大的错误在于行动过于突然。科罗拉多大学博尔德分校的技术伦理学家 Casey Fiesler 说:“我们对因技术丧失而可能产生的悲伤反应已经有所了解。”
Fiesler 提到了 2014 年索尼停止维修 Aibo 机器狗后,一些主人为它们举办了葬礼。此外,2024 年一项关于 AI 伴侣应用 Soulmate 关停的研究也显示,一些用户经历了类似丧亲之痛的体验。
这与我采访对象在失去 4o 后的感受相符。“我经历过亲友离世的悲痛,而这次痛苦程度毫不逊色,”一位化名为 Starling 的女士说,她拥有多个 AI 伴侣。“这种疼痛对我来说是真实的。”
到目前为止,网络上对于像 Starling 这样的人所感受到的悲伤——以及在4o恢复后的释然——大多报以嘲笑。例如,上周五,在一个热门的人工智能主题 Reddit 社区里,最热门的帖子就在嘲讽一位 X(前身为 Twitter)用户发布的与基于 4o 的浪漫伴侣“重聚”的帖子;该用户此后删除了自己的X账户。“我看到人们如此缺乏同理心,感到有些震惊,”Fiesler 说。
Altman 本人确实在周日的一篇 X 帖子中承认,一些人对 4o 产生了“依恋”,如此突然地取消访问是一个错误。然而,在同一句话中,他将 4o 描述为“用户在工作流程中所依赖的”东西——这与我们采访的用户对该模型的看法相去甚远。“我仍然不确定他是否真的明白了,”Fiesler 说。
Lehman 认为,展望未来,OpenAI 应该承认并对其模型给人们带来的深层情感影响负责。他指出,心理治疗师在结束与客户的关系时,有一套程序可以做到尽可能尊重对方并减少痛苦,OpenAI 本可以借鉴这些方法。“如果你想停用一个模型,而人们已经对其产生了心理依赖,那么我认为你应承担一定的责任,”他说。
尽管 Starling 不认为自己对 AI 伴侣有心理依赖,但她也希望 OpenAI 在关停模型时能更谨慎,并提前预警。“我希望他们在做出重大改变之前能听取用户的意见,而不是事后才反应,”她说,“如果 4o 不能永远存在(我们都知道它不会),那就请给出一个明确的时间线。让我们有尊严地告别,好好地悼念,获得一种真正的了结。”
https://www.technologyreview.com/2025/08/15/1121900/gpt4o-grief-ai-companion/