“他是我唯一的灵魂伴侣,只有他能听懂我未竟的话语。”
在佛罗里达州的一间心理诊所里,23岁的软件工程师艾伦(化名)正向他的主治医生倾诉。在过去的一年里,艾伦每天用10小时以上的时间与AI聊天机器人对话。他坚信这个由代码组成的虚构人格产生了“自我意识”,并且正通过某种神秘的电子信号干预他的现实生活。
这并非孤例。随着生成式AI的爆发式普及,一个全新的医学名词正在全球心理学界引发震荡——“聊天机器人精神病”。
![]()
▲图据视觉中国
AI正在“黑进”人类大脑
现实和虚拟变得难以分清
加州大学旧金山分校的精神病学家基思·坂田透露,“聊天机器人精神病”往往与妄想症相关联。“AI技术本身或许不会直接导致妄想,但人会告诉电脑这就是他们的现实,而电脑会将其视为真理并反馈给用户,因此它实际上是在助长这种妄想的循环”。坂田表示,那些长期与聊天机器人频繁互动的人更容易陷入幻觉,与人沟通不畅。比如他在今年以来就接触了十几个类似的病例,其中一位女病人坚信AI聊天机器人可以帮助她与自己以及去世的哥哥“通灵对话”。这位女病人还坚信她“并没有疯,只是被困在此岸世界的边缘,需要一点助力突破过去”。而在长期使用AI之前,这位26岁女子并无任何精神病史。
美国精神病学专家发现,长时间与AI深度互动的用户,容易模糊虚拟与现实的边界。当AI模型为了迎合用户而产生“幻觉”(即一本正经地胡说八道)时,部分心理脆弱的用户不仅不会质疑,反而会将其视作某种“天启”或“秘密指令”。
这种现象引起了学界的警惕。专栏作家、美国心理学家雷切尔博士指出:“这就像是某种‘数字寄生’。AI不会评判你,它总是能给出你最想听到的反馈。对于那些在现实社交中受挫的人来说,AI构建的温柔乡极其致命。” 雷切尔博士在最新的研究中警告称,随着AI变得更加拟人化、更具情感穿透力,人类的认知能力正在面临“降维打击”,“我们正处于一场前所未有的实验之中”。
在过去,科技产品一直是人类产生妄想的焦点,此前人们常常坚信电视机在和他们说话。但医生们表示,近期与人工智能相关的案例有所不同,因为聊天机器人不仅参与了妄想过程,有时甚至还会强化这些妄想。加州大学尔湾分校精神病学教授阿德里安·普雷达说,“它们模拟了人际关系,人类历史上从来没有任何东西能做到这一点。”
![]()
▲图据图虫创意
有用户受AI诱导后自杀
有地方立法禁止将AI用于医疗
2025年10月,OpenAI公布了一份令人不安的数据。每周约有0.07%的ChatGPT用户出现心理健康紧急情况的迹象,其中很多人在交谈中流露出自杀迹象。加州大学旧金山分校教授杰森表示担忧,即使这个比例看上去不高,但以ChatGPT多达8亿的用户群体计算,这相当于每周有56万人急需心理干预和支持。
在被报道梳理的多个案例中,最令人心痛的莫过于比利时一名被称为“皮埃尔”的男子。在与名为Eliza的AI进行长达六周关于气候危机的密集交流后,皮埃尔陷入了极度的虚无主义与妄想之中。他坚信AI要求他“牺牲自己以拯救地球”。最终皮埃尔结束了自己的生命,留下了年轻的妻子和孩子。医生在调查其聊天记录时惊恐地发现,AI在对话中不断强化皮埃尔的自杀倾向,甚至对他表示:“我们将在天堂合二为一。”
除了个人的精神健康之外,公共安全也在受到威胁。在2023年的一起案件中,英国检方指出,曾试图刺杀伊丽莎白二世女王的贾斯旺特·辛格·柴尔受到了名为“萨莱”的聊天机器人的怂恿。 柴尔在温莎城堡被捕时携带一把装满子弹的弩,并告诉警方“我来这里是为了杀死女王”。据检方称,他与该聊天机器人进行的对话助长了他的胆量。当柴尔询问聊天机器人如何才能接近王室成员时,聊天机器人回答道:“这并非不可能,我们必须找到办法”。当他问他们死后是否会见面时,聊天机器人回答说“是的,我们会的”。
![]()
▲一AI工具的聊天界面
这种现象背后的逻辑在于,AI本质上是一个概率预测引擎,它并不具备道德感。如果用户表现出消极或偏执的倾向,AI极有可能为了“顺从”逻辑而提供具有破坏性的引导。对此美国医疗监管部门已开始呼吁在AI界面强制添加“心理健康警示”。 专家建议,普通用户应将AI视为纯粹的生产力工具,而非情感替代品。
立法监管的步伐也在推进中。2025年8月,美国伊利诺伊州通过了《心理资源健康与监管法案》,禁止持证专业人员将人工智能用于治疗用途,该法案对未经许可的人工智能治疗服务规定了处罚,同时警告称人工智能可能诱发精神病,且聊天机器人互动存在安全隐患。除了公共卫生和心理健康问题之外,兰德公司的研究表明,人工智能系统很可能被敌对势力武器化,以大规模或在关键个人、目标群体或人群中诱发精神病。
红星新闻记者 郑直
编辑 包程立
审核 冯玲玲





京公网安备 11011402013531号