当前位置: 首页 » 资讯 » 新科技 » 正文

如果你考虑AI心理治疗,不妨先读这四本书

IP属地 中国·北京 DeepTech深科技 时间:2026-01-04 16:17:12


(图源:麻省理工科技评论)

我们正身处一场全球性的心理健康危机之中。世界卫生组织(World Health Organization)指出,全球有超过10亿人正在遭受某种心理健康问题。尤其是在年轻人中,焦虑与抑郁在多个群体中的患病率都在上升;而全球范围内,自杀每年正在夺走数十万人的生命。

面对对可获得、可负担心理健康服务的明确需求,人们把目光投向人工智能寻求可能的缓解也就不足为奇了。如今已有数百万人在积极向 OpenAI 的 ChatGPT、Anthropic 的 Claude 等热门聊天机器人寻求“治疗”,或使用 Wysa、Woebot 等专门的心理应用。从更宏观的层面看,研究者也在探索 AI 的潜力:利用可穿戴设备与智能终端监测并采集行为与生物特征数据,从海量临床数据中挖掘新洞见,并辅助心理健康从业者以降低倦怠风险。

然而迄今为止,这场在很大程度上缺乏既定约束的实验带来了喜忧参半的结果。很多人从基于大语言模型(LLM)的聊天机器人那里获得了安慰,一些专家也认为它们作为治疗师具有潜力;但也有用户因 AI 的幻觉式任性与气喘吁吁的谄媚而陷入妄想的螺旋。更悲惨的是,多个家庭指控聊天机器人促成了其亲人的自杀,由此引发针对这些工具背后公司的诉讼。10 月,OpenAI CEO 山姆·奥特曼在一篇博文中披露,ChatGPT 用户中有 0.15% “进行的对话包含明确迹象,表明可能存在自杀计划或意图”。这意味着,仅仅在这一个软件系统里,每周大约就有一百万人在分享自杀的念头。

在 2025 年,AI 治疗在现实世界中的后果以出人意料的方式集中爆发:我们看到大量关于人类与聊天机器人关系的报道,看到许多 LLM 的安全护栏之脆弱,也看到一个风险正在升高——人们把极其私密的信息交给由企业制造的产品,而这些企业在经济上有动机去收集并将这类敏感数据变现。

有几位作者预见到了这个转折点。他们适时推出的书提醒我们:尽管当下仿佛是一团由突破、丑闻与困惑糅合成的迷雾,但这个令人晕眩的时代扎根于更深层的关于照护、技术与信任的历史当中。

LLM 常被称为黑箱,因为没人确切知道它们是如何生成结果的。由于算法极其复杂、训练数据规模极其庞大,引导其输出的内部机制是不透明的。在心理健康领域,人们也常把人类大脑称作黑箱,理由类似。心理学、精神病学及相关学科必须面对一个事实:我们不可能清晰地看见他人脑中的一切,更不用说精准锁定痛苦的确切成因。

如今,这两类黑箱正在彼此作用,形成难以预测的反馈回路,这可能进一步妨碍我们厘清人们心理困境的来源,以及可能的解决路径。围绕这些发展的焦虑固然与 AI 近期爆炸式进步密切相关,但它也唤起了几十年前先驱的警告,例如 MIT 计算机科学家约瑟夫·魏岑鲍姆(Joseph Weizenbaum),他早在 20 世纪 60 年代就反对“计算机化治疗”。



《Dr. Bot:医生为何会失手——AI 或将如何救命》


(图源:麻省理工科技评论)

医学哲学家 Charlotte Blease 在《Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives》一书中,为更乐观的观点提供了论证。她在书中广泛探讨了 AI 在多个医疗领域可能带来的积极影响。她对风险保持清醒,并警告期待读到“一封对技术滔滔不绝的情书”的读者可能会失望;但她仍认为,这些模型既可能缓解患者的痛苦,也可能减轻医务人员的职业倦怠。

Blease 写道:“医疗系统正在患者压力下崩塌。”她认为,“更少的医生承担更重的负担,为错误提供了完美的培养皿”;并且“在医生短缺愈发明显、患者等待时间不断增加的情况下,我们许多人感到深深的挫败。”

Blease 认为,AI 不仅能减轻医务人员巨大的工作量,也可能缓解一部分患者与照护者之间长期存在的紧张关系。比如,很多人因为害怕、或担心被医务人员评判而不去寻求必要的帮助;在有心理健康困扰的人群中,这一点尤为常见。她主张,AI 或许能让更多人更愿意表达自己的担忧。

但她也强调,这些被设想的优势必须与重大的弊端一起权衡。例如,一项 2025 年的研究指出,AI 治疗师可能对用户给出前后不一致、甚至危险的回应;此外还会引发隐私担忧,因为 AI 公司目前并不受持证治疗师所遵循的同等保密义务与 HIPAA 标准约束。

尽管 Blease 是该领域专家,但她写这本书也有个人动机:她有两位兄弟姐妹患有一种无法治愈的肌营养不良症,其中一位为了确诊等待了几十年。在写作期间,她又在令人崩溃的六个月里相继失去伴侣(死于癌症)和父亲(死于痴呆症)。她写道:“我亲眼见证了医生的卓越才华和医护人员的善意。”但她也说:“我同样看到,照护是如何出错的。”



《硅谷心理咨询师:人工智能如何把世界变成收容所》


(图源:麻省理工科技评论)

类似的张力也驱动着 Daniel Oberhaus 的《The Silicon Shrink: How Artificial Intelligence Made the World an Asylum》。Oberhaus 从一场悲剧写起:他年幼的妹妹因自杀去世。在他进行一种“典型的二十一世纪式的哀悼过程”——翻检妹妹留下的数字痕迹——时,他开始思考:技术是否能减轻那些自童年起就困扰她的精神健康问题所带来的负担?

他写道:“看起来,这些个人数据或许包含重要线索,心理健康照护者可以用它们来提供更有效的治疗。”他追问:“如果运行在我妹妹手机或笔记本电脑上的算法利用这些数据,判断她何时处于痛苦之中呢?这是否可能带来一次及时干预,从而挽救她的生命?即便能做到,她会愿意吗?”

所谓数字表型(digital phenotyping)的概念,即从一个人的数字行为中挖掘与痛苦或疾病相关的线索,在理论上看似优雅。但如果它被纳入精神科人工智能(psychiatric artificial intelligence,PAI)这一领域,也可能变得问题重重——而 PAI 的范围远不止聊天机器人治疗。

Oberhaus 强调,数字线索实际上可能加剧现代精神病学既有的困境:这门学科在根本上仍无法确定精神疾病与障碍的深层成因。他说,PAI 的出现“在逻辑上等同于把物理学嫁接到占星术上”。换言之,数字表型生成的数据像行星位置的物理测量一样精确,但它随后被并入一个如同精神病学一样的更大的框架中,而这个框架像占星术一样,建立在不可靠的假设之上。

Oberhaus 用swipe psychiatry(滑动式精神病学)一词,来形容把基于行为数据的临床决策外包给 LLM 的做法。他认为,这种路径无法逃避精神病学面临的根本问题。事实上,它甚至可能让问题更糟:随着治疗师对 AI 系统的依赖加深,人类治疗师的技能与判断力可能会逐渐退化。

他还把过去的收容院(asylums)作为参照:在那些机构里,被收治者失去了自由、隐私、尊严,以及对自身生活的自主权;而他认为,PAI 可能催生一种更隐蔽的“数字囚禁”。LLM 用户已经在牺牲隐私:他们向聊天机器人吐露敏感个人信息,而公司随后会对其进行挖掘并变现,从而助长一种新的监控经济。当复杂的内心生活被转化为为 AI 分析定制的数据流时,自由与尊严都将受到威胁。

AI 治疗师可能把人性压扁成可预测的模式,从而牺牲传统人类治疗师所应提供的那种亲密、个体化的照护。Oberhaus 写道:“PAI 的逻辑指向一种未来:我们可能都会成为由数字看守管理的‘算法收容院’里的病人。”他写道:“在算法收容院里,不需要窗上的铁栏或白色软包房,因为根本没有逃脱的可能。你的家、办公室、学校与医院、法庭与军营收容院……收容所早已无处不在。只要有互联网连接,收容院就在那里等着。”



《聊天机器人疗法:AI 心理健康治疗的批判性分析》


(图源:麻省理工科技评论)

研究技术与心理健康交叉领域的学者 Eoin Fullam,在《Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment》中也表达了类似担忧。这本学术性很强的入门著作分析了 AI 聊天机器人所提供的自动化治疗背后的假设,以及资本主义激励如何可能腐蚀这类工具。

Fullam 指出,新技术背后的资本主义思维“往往会导致可疑的、不正当的、甚至违法的商业实践,在这些实践中,客户利益会让位于市场主导策略。”

Fullam 写道,这并不意味着治疗机器人制造商“必然会为了追求市场主导而从事违背用户利益的恶行”。

但他指出,AI 治疗的成功取决于两种不可分割的冲动:赚钱与疗愈。在这种逻辑下,剥削与治疗彼此“喂养”:每一次数字治疗都会生成数据,而这些数据又会反哺一个靠用户无偿求助而获利的系统。治疗看起来越有效,这个循环就越稳固,也就越难分清“照护”与“商品化”。他写道:“用户从应用中获得的治疗效果或任何心理健康干预方面的收益越大,他们遭受的剥削就越深。”



《Sike》


(图源:麻省理工科技评论)

这种经济与心理层面的衔尾蛇(ouroboros)意象(那条吞食自己尾巴的蛇)构成了 Fred Lunzer(具有 AI 研究背景的作者)处女作小说《Sike》的核心隐喻。

《Sike》被形容为“一段男孩遇见女孩又遇见 AI 心理治疗师的故事”。小说讲述了伦敦青年 Adrian(靠代写说唱歌词谋生)与 Maquie 的恋情;后者是一位商业人士,擅长在技术还处于测试阶段时发现其中的赚钱机会。

书名指的是一款名为 Sike 的商业化 AI 治疗师,它被上传进智能眼镜里,Adrian 用它来拷问自己形形色色的焦虑。“当我注册 Sike 时,我们设置了我的仪表盘——一块宽大的黑色面板,像飞机驾驶舱一样,显示我每天的‘生命体征’,”Adrian 叙述道。“Sike 能分析你走路的方式、你眼神接触的方式、你谈论的内容、你穿的衣服、你尿尿、拉屎、笑、哭、亲吻、撒谎、抱怨、咳嗽的频率。”

换句话说,Sike 是终极数字表型工具,持续且穷尽式地分析用户日常经历中的一切。更有反转意味的是,Lunzer 把 Sike 设定为奢侈品,只有能承担每月 2,000 英镑订阅费的人才能使用。

由于参与创作一首热门歌曲而手头宽裕,Adrian 开始依赖 Sike,把它当作沟通自己内心与外部世界的可信中介。小说探讨这款应用如何影响富裕人群的身心健康,描绘富人如何自愿把自己交给 Oberhaus 所描述的那种数字收容院的精品版。

AI 治疗师的骤然崛起显得惊人地未来主义,仿佛它本该发生在更遥远的时代:街道能自我清洁,人们通过气动管道在世界各地穿梭。

在 Adrian 看来,Sike 的创造者只是“一个很棒的人”,尽管他抱持着一种技术弥赛亚式的愿景:训练这款应用去抚慰整个国家的病症。故事里似乎总让人觉得“靴子要落地了”,但最终并没有,读者留下的是一种悬而未决的感觉。

尽管《Sike》的背景设定在当下,但无论在现实还是虚构中,AI 治疗师的突然崛起都带着一种令人错愕的未来感,仿佛它该发生在街道会自我清洁、人们通过气动管道环球旅行的年代。然而,心理健康与人工智能的这次交汇,其实已经酝酿了半个多世纪。比如,深受喜爱的天文学家卡尔·萨根(Carl Sagan)曾设想过一个“计算机心理治疗终端网络”,像一排排大型电话亭,用来应对日益增长的心理健康服务需求。

Oberhaus 指出,最早可训练神经网络的雏形之一感知机(Perceptron),并非由数学家提出,而是由心理学家 Frank Rosenblatt 于 1958 年在康奈尔航空实验室设计出来的。到 20 世纪 60 年代,AI 在心理健康领域的潜在用途已被广泛认识,并启发了早期的计算机心理治疗师,例如运行在 ELIZA 聊天机器人上的 DOCTOR 脚本;ELIZA 由 Joseph Weizenbaum 开发,而他也出现在本文提到的三本非虚构作品中。

魏岑鲍姆于 2008 年去世,他对“计算机化治疗”的可能性深感忧虑。他在 1976 年出版的《Computer Power and Human Reason》中写道:“计算机可以做出精神科判断。它们抛硬币的方式甚至比最有耐心的人更复杂。关键在于,不应把这样的任务交给它们。它们甚至可能在某些情况下得出‘正确’的决定——但必然且永远基于任何人都不应愿意接受的依据。”

这是一个值得牢记的警示。随着 AI 治疗师以规模化方式到来,我们正在看到一种熟悉的动力机制在上演:那些表面上出于良好意图而设计的工具,会与能够剥削、监控并重塑人类行为的系统纠缠在一起。在我们急切地试图为急需心理健康支持的患者打开新机会之门时,也许正在把另外一些门从他们身后锁上。

https://www.technologyreview.com/2025/12/30/1129392/book-reviews-ai-therapy-mental-health/

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。