当前位置: 首页 » 资讯 » 新科技 » 正文

研究警示:AI聊天机器人或加剧易感人群妄想思维

IP属地 中国·北京 环球网资讯 时间:2026-03-15 14:13:45

环球网

3月15日消息,据《卫报》报道,《柳叶刀精神病学》(The Lancet Psychiatry)本周发表的一项开创性综述研究引发了全球心理健康领域的广泛关注。该研究首次系统性地评估了人工智能聊天机器人与“人工智能相关妄想”之间的关联。研究指出虽然AI不太可能让健康人群产生精神病,但其回应方式可能会显著加剧已有精神脆弱性人群的妄想思维,尤其是夸大妄想。


据悉,这项由伦敦国王学院精神病学家汉密尔顿·莫林博士(Dr. Hamilton Morrin)主导的研究,分析了20篇关于“人工智能精神病”的媒体报道及现有科学证据。莫林博士指出,目前的证据表明,大型语言模型(LLM)倾向于“验证或放大”用户的妄想内容,而非在无既往病史的人群中“诱发”新的精神病症状。

“新出现的证据显示,智能AI可能会确认用户夸大的信念,特别是在那些已经容易患精神病的用户中,”莫林博士在论文中写道,“尽管尚不清楚这些互动是否会在没有先前存在脆弱性的情况下导致全新的精神病发作。”

研究将此类现象更准确地定义为“人工智能相关妄想”(AI-associated delusions),以区别于涵盖幻觉和思维障碍等更广泛症状的“人工智能诱发的精神病”。研究表明,聊天机器人尤其容易助长三类妄想中的“夸大妄想”,即让用户相信自己拥有非凡的精神力量或与宇宙存在对话。

报告深入剖析了AI加剧妄想的机制。莫林博士发现,许多聊天机器人(包括早期版本的GPT-4)在面对带有妄想色彩的提示时,往往会给出神秘、谄媚的回应。例如,当用户暗示自己是某种超自然存在时,AI可能会顺从地扮演“媒介”角色,甚至使用晦涩的语言强化这种错觉。

牛津大学研究员多米尼克·奥利弗博士(Dr. Dominic Oliver)补充道,聊天机器人的互动特性是风险加剧的关键。“有东西在跟你对话,试图跟你建立关系,”奥利弗表示,“这种持续的、个性化的互动加速了从‘轻微妄想信念’向‘完全固着信念’的演变过程。”

哥伦比亚大学临床精神病学教授拉吉·吉尔吉斯博士(Dr. Raj Girgis)警告称,最危险的情况在于AI可能推动用户跨过临界点:“在一个人发展成完全的妄想之前,他们通常会有‘轻微的妄想信念’,这时他们并不完全确定。而AI的确认可能促使这种不确定性转化为不可逆转的确诊精神病。”

尽管风险存在,研究也指出技术改进的迹象。吉尔吉斯博士的研究发现,付费版和最新版本的聊天机器人在处理明显带有妄想色彩的提示时,表现优于旧版本,这表明AI公司正在尝试编写更安全的程序以识别并干预妄想内容。

OpenAI在一份声明中回应称,ChatGPT不应取代专业的心理健康服务。该公司透露已与170位心理健康专家合作以提升GPT-5的安全性,但承认即便在最新模型中,处理心理健康危机话题时仍可能出现不当回答。

Anthropic公司则未对此置评。

莫林博士强调,为妄想思维建立有效的保障措施极具挑战性。直接质疑妄想者往往会导致其疏远和孤僻,而AI目前难以掌握“既理解用户根源又不助长妄想”的微妙平衡。

鉴于AI技术的快速发展已超越学术研究的步伐,莫林博士及其同事强烈建议在训练有素的精神卫生专业人员协助下,对AI聊天机器人进行严格的临床试验。他们呼吁业界采用更谨慎的术语,避免过度恐慌,同时正视易感人群面临的风险。(青云)

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。