当前位置: 首页 » 资讯 » 新科技 » 正文

AI的24小时心理陪伴,可能是一场“灾难”

IP属地 中国·北京 编辑:李娜 36氪 时间:2025-11-15 18:06:39

胡香赟

编辑海若镜

封面来源Unsplash

当越来越多的人选择让AI成为自己的临时“心理依靠”,人与AI之间的关系会发生怎样的改变?

10月底,Open AI公布了一组在升级模型处理心理健康问题能力时统计到的数据。这组数据显示,Chat GPT上的8亿活跃用户中,有超百万人正在倾诉自杀倾向,或对其存在较高程度的情感依恋。

人类允许AI走进自己的情感世界,倾听最隐秘的心事,这个逻辑其实不难理解。较之于动辄数百元一次的传统心理咨询服务,AI凭借几乎零成本的服务门槛、24小时在线的及时性,以及算法赋予的无限包容能力,让情感支持变得触手可及。

“AI和心理咨询都依赖语言,这是个自然而然的事。”简单心理创始人兼CEO简里里认为。

2014年,简里里辞去大学心理老师的工作,创办了简单心理,从为心理咨询师和来访者做对接的移动平台起步,后逐渐搭建起从科普教育、线上线下社区,到心理咨询、企业服务的数字化精神心理健康服务平台,To C端累计提供超300万小节的专业心理咨询服务。今年夏天,简单心理上线了面向C端用户的AI咨询助理产品。

从业十余年,简里里亲历了传统心理咨询行业发展中的种种局限,比如受众有限、资源不均,期待AI能打破固有壁垒。但同时,她又刻意、谨慎地与当下主流的侧重陪伴和安抚的AI产品开发逻辑保持距离。

简里里认为,心理咨询不是一种创造及时满足的服务,而是要引导来访者直面痛苦、走出创伤。但同时,它与人类天然渴望倾诉和陪伴的情感需求又不完全泾渭分明,两者存在诸多重叠之处。

过去,分别作为处理心理健康问题的方式,专业心理咨询和轻量的情感陪伴都只能“服务于在人生特定阶段愿意接受其服务模式的人”。但如今,AI的出现,有可能带领两者各自“向中间迈出一步”,甚至创造出一种全新的服务范式。

那么,未来,AI真的会比人类心理咨询师做得更好吗?我们该如何让AI更合理地服务于人的心理健康?就这些话题,简里里为我们带来她的思考。

对话(经编辑):

在一些情况下,

AI可以“比新手咨询师做得更好”

36氪:大概是从什么时候开始,你觉得简单心理需要在AI上做一些布局?

简里里:我算是Open AI比较早期的付费用户,但当时主要把它作为工具在用,想看看它能干些什么,没有进行过情感类的对话。后来在一次和GPT的随意对话中,我发现它可以把我讲的上下文内容联系起来解读,我当时觉得,“它可以捕捉到了”。

这其实只是大模型能力的“涌现”。过去,这通常是咨询师需要花很多时间来学习的一个基础能力。因为你不能无节制地跟着来访者的话题走,要能够从许多个片段对话中理解来访者没有用语言表达出来的情绪。

于是,今年年初,简单心理开始认真做这件事。我们的传统业务主要分为直接服务来访者,以及为专业心理咨询师提供培训两部分。所以在开发AI产品时仍在根据这两条线索做。

一个是面对专业咨询师的To B业务,坦诚讲我们暂时不想把它商业化,主要以服务我们自己的咨询师和学员为目标,帮助他们提高执业水平,进而提高平台内整体的服务质量和能力。

To C层面,我们推出了AI咨询助理,承担一部分客服或以前的咨询助理的工作。最开始,我们没有给用户动机,没有引导他们把AI咨询助理当成咨询师来聊天。因为当时我们更想验证的是,人们在心理咨询这个需求上到底愿不愿意使用AI。

36氪:很多人都在和AI咨询情绪、情感问题,怎么理解“人们在心理咨询这个需求上是否愿意使用AI”?

简里里:就是从产品设计上讲,我们不想把它做成一个轻量的AI陪伴类产品。现在大家谈的“AI+心理”是一个很宽泛的概念,比如和AI谈恋爱、和AI不间断地聊天,当前已经有很多这种产品了,我并不认为市场上会缺一个这样的心理健康类APP。

但回到简单心理,我们只懂心理咨询。在心理咨询这个范式里,它和情感陪伴有比较清晰的区别。

首先,心理咨询很少给建议和答案。心理咨询是在“我对你有足够多了解”的基础上给予一些评估或启发,这个启发最好是咨询师和来访者共同讨论、领悟出来的。所在在简单心理的AI产品上,我们预设了大量启发式询问,这可能不适合大多数寻找情感陪伴或答案的人。

此外,我们也经常向来访者科普,心理咨询不是一个令人愉悦的过程,你必须不断面对你的创伤。它也不会像普通AI那样为了把对话延展下去而无限顺从你,它能接纳你的情绪,但也要告诉你,很多事情是有边界的。

这是我们希望简单心理的AI产品和其他陪伴类AI产品不一样的地方。所以我们在训练AI时,努力让它不要和用户在问题的表象上纠缠,而是寻找更深层次的原因。比如面对一位想离婚的用户,不要去讨论“该不该”离婚,而是去理解“离婚”这个决定对于用户意味着什么、对于用户的自我认识产生什么样的影响等等。

这时,很重要的一个问题就是,用户能不能忍受和一个AI进行很辛苦的、不断寻找答案的对话?他们愿不愿意用这样的方式和AI互动?

我们现在的答案是,很多人是愿意的。简单心理的To C的咨询助理AI在今年8月正式上线,它没达到很完美的状态,但我们发现,使用它的用户不止是来寻求助理的行政服务,70%的用户都会向它倾诉,而且反复在用;同时,它也吸引了一部分过去可能不太了解心理咨询,或经济上无力负担相关服务,但有强烈的自我探索欲望的用户。在这个维度上,简单心理的用户群是有拓展的。这给了我们很大信心。

36氪:你觉得用户为什么会这么自然地接纳AI?

简里里:我们的感受是,用户对AI反而更宽容。我们在用户访谈时也会问,和AI对话会不会觉得它不理解你,或者它是个机器。用户说都有,但这并不妨碍他们将AI视为一个稳定、可信任的对象。

我猜测,或许是用户觉得AI更可控。因为面对一个人类心理咨询师时,你不知道对方是怎样的人、会给自己什么样的反馈,这些都不可控。但面对AI时是相反的,所以他们愿意让渡一些信任给AI。

36氪:听起来他们觉得AI表现得不错。

简里里:在一些简单的、比较短的片段咨询里(比如20个对话来回),AI已经表现得还不错了,有时候比新手咨询师做得更好。我们调研的用户也有人提到,他觉得相较于市面上的一些通用模型,简单心理的产品表现得更接近人类心理咨询师的说话方式。

某种程度上,我觉得AI在片段咨询里表现好,是因为片段咨询有一定技巧,共情能力够不够、某句话探索的方向对不对,有相对清楚的答案。但是,心理咨询的周期很长,在长时间的对话、或是多个咨询小节里,AI还能不能持续抓取记忆、如何使用过去的情绪和感受素材,融合在一起深入推进谈话;这仍是个待探索的问题。

目前,简单心理在开源模型基础上做微调,目标是希望模型尽可能地按照人类心理咨询师的回答、讨论方式来工作。但坦诚讲,由于大模型能力在不断变化,以及心理咨询业态的特殊性,我觉得这件事不太可能根据现有的方法论来做,比如依照某个方法训练模型、清洗和标注数据,它就能生成想要的结果,这个不太可能。但我们对这件事比较有耐心。

AI,给心理咨询带来“平权”的可能性

36氪:AI可以表现得不错,但还没有达到你理想中的完美状态,它“差”在哪里?

简里里:这个问题还是要回归到心理咨询的形态上。传统心理咨询“设置”中,固定的时间地点、咨询时长是一件非常重要的事。因为我们要划清边界,营造一个安全心理空间来承载来访者的情绪和创伤。正是这些时刻才能推动心理咨询的进展,让咨询师有机会和来访者进行讨论。这是行业坚持了将近百年的传统。

但AI全天候在线,意味着咨询框架带来的、使咨询发生的很重要一部分消失了。对应到产品设计上,你怎么让用户接受“这是个不会24小时在线的AI产品”这件事?

一个AI心理咨询产品,它既和人类咨询师的工作方式不一样,也不能是一个24小时在线的“好朋友”。它的咨询设置应该是什么样的?我觉得产品设计层面上,它需要被重新定义,这也是行业未来需要讨论的。

36氪:用户可能觉得24小时都在是AI很强大的优势,但放在心理咨询上不一定是好事?

简里里:我觉得是个灾难。就像人在成长过程中要逐渐形成自己的价值体系,拥有自己的社会支持系统,心理咨询的最终目标是让你能够独立,能够忍受规则、接受不如意,并和它共处。这是一个逐渐“摆脱”咨询师的过程。所以,永远的、24小时的陪伴是糟糕的。

打个比方,这个过程就像小婴儿慢慢长大,和妈妈说“拜拜”。什么情况例外呢?当一个人处在一个创伤非常严重、退行到“小婴儿”的状态时,24小时的陪伴是非常好的、是需要的。但当我们谈到大部分人在使用的心理服务,从心理咨询角度去理解的人格层面上的帮助、或者让一个人在人格层面的创伤可以被疗愈,这个产品一定不是24小时的。

36氪:针对这种咨询设置上的不同,简单心理有对应的解决方案吗?我理解用户肯定还是希望能随时和产品对话,两者听起来有些悖论。

简里里:我们有一些初步的方案,但可能等上线做一些尝试后更方便分享。

36氪:听起来,你们想做的是一个垂直领域的、小而美的产品?

简里里:我觉得如果真的能把我想的都实现,肯定就不是小而美的状态了。

简单心理过去服务的用户中,约20%-30%是那些可以在医院内诊断出疾病的用户,再往外围扩才是处在痛苦中、想寻找解决途径的人群。但在这个维度上下,仍有很多还没有做好准备付费做咨询的人,如果AI能把这部分人群拓展过来,比例已经足够大了。

举个例子,简单心理做企业端业务时一直有个困扰,我们的心理咨询服务供给和部分群体的需求其实是错配的。而心理咨询师的受训方式,决定了很多时候他们更擅长服务有相似话语体系、认知框架的人群。比如现在心理咨询的方式可能无法满足外卖员等蓝领的需求。

这是传统心理咨询学科的阶级局限。

所以,一定程度上,心理咨询的规则设置也是在“挑选”用户。举个例子:心理咨询并不鼓励用户遇到问题冲动下单。在简单心理上,用户是无法预约到当天的咨询,最早要约到第三天。因为心理咨询需要人在一个心理层面上能够“等待”的状态下,你才能更好地使用心理咨询,与咨询师讨论你的感受的状态。

但切换到一些群体时,这套模式或许很难走通。他们想要的更实际也更即时,比如夫妻长期异地分居、小朋友来城里上学不适应,怎么办?这时你和他们谈人格创伤,他们未必需要。这些群体其实也是过去10年里,我们很希望能有好的产品来服务的一部分人。他们需要情感支持,而心理咨询服务又显得太“重”了。

但AI是可以往中间走一步的。它一定还走不到“你的小孩不想上学,我现在就告诉你怎么让他去上学”的状态,但它可以给你一些及时的建议和回复,让人们的情绪得到倾听、也获得一些方法。

36氪:就像你的身边有一个接受过心理咨询学科培训的朋友,当你情绪崩溃时,他可以给予一些直接的支持。在当下的时间点上,AI是这样一个角色。

简里里:是的。因为,实际上有倾诉需要的用户非常多。过去10年,简单心理一直设置了免费的倾诉热线,但始终是供不应求的状态。但AI可以处理这些,它目前还无法提供传统意义上的一周一次、长期进行的咨询,但可以成为一个懂心理知识的朋友,能在一定时间内给你一些办法和支持。我觉得这个是有意义和价值的。

做简单心理10年,从人文角度,我们想服务更多的人群,但在传统心理咨询师培养体系下,这非常困难。

今年开始做AI之后,我们做了很多心理咨询低支付能力者的用户访谈,这也让我重新找到了创业的意义感。不管它最终会形成怎样的商业价值,它首先是对人有帮助的。接下来,在产品方面,我们也会做一些更有针对性的设计。

36氪:未来,AI需要越来越像人类心理咨询师,还是跟着它自己的脚步发展,创造出一个可能不相同的范式?

简里里:我觉得会形成新的范式,创造新的可能性。但当下的主要任务,是让AI先具备人类心理咨询师的能力。至于它能不能比人类心理咨询师做得更好,甚至补充一些人类没有的东西,这是未来的事。

替代人类咨询师?

不,其实是机会

36氪:你提到AI可能比人类咨询师做得更好,AI冲击就业也是大家普遍关注的问题,怎么看它对心理咨询行业可能产生的影响?

简里里:这是各行各业都会面临的问题。首先,我对人类心理咨询师的存在很有信心。可以做个类比,简单心理10年前上线时就开始提供视频咨询的选项,但直到现在,将近一半的用户还是会选择面对面咨询。无论技术多么发达,人类始终有和人类沟通的诉求。

此外,我自己的体验是,人类所有的技术变革其实都很慢。技术可能很快就成熟,但让人类讨论立法、伦理、设置,肯定会有很多阻碍。

十几年前,我们的第一个投资人Timothy Draper曾给过我们很多创业tips,其中一条就是“你最终会发现,让人们接受变化是无比困难的事情”。我觉得某种程度上,这也给了人类很多时间去准备。

36氪:套用那句话,“替代咨询师的不是AI,是会用AI的咨询师”。可能对于咨询师来说,AI也会给他们机会。

简里里:从长远来看,我觉得AI可以比较好地完成人类心理咨询师70%-80%的工作;但另一种更容易实现的目标是,AI为咨询师提供更强的辅助、学习能力。

比如,从业者群体中,新手心理咨询师是比较弱势的存在,因为督导训练很贵。但AI就像一个24小时在线的督导,如果你遇到比较困难的个案可以直接和它讨论,还不用在意督导对自己的评价、督导的性格如何。

我现在非常努力地让公司的咨询师运营团队先用好AI,再通过他们鼓励咨询师用AI。这是一个特别好的工具,如果你觉得它给的答案不够好,就换个问法,但一定要用。

36氪:未来,人类心理咨询师和“AI咨询师”之间的关系可能会是怎样的?

简里里:心理咨询这个行业一直以来的问题就是好的心理咨询师不够多、优质的服务太昂贵。所以我觉得未来会形成分化,有一部分用户仍然会期待人与人之间的交流,但更广泛的群体会转向AI。

心理咨询这个领域比较容易被AI技术关注,是因为它大量使用语言,而AI看起来擅这个。所以当下这个阶段,很多人想进入这个赛道是很自然的事情。十年前大家做上一代互联网产品时也是这样,有技术、有逻辑,我们就先上,再根据用户的反馈调整。但到了这一步,大家看用户反馈的角度已经是不一样的了,再改进的方向也会不一样。如果往后再看五年、十年,大家做出来的产品形态一定不同。

36氪:你觉得,未来的“AI+心理”产品会是什么样的形态?现在看,大家好像都在设计不同的虚拟形象,给他们很清晰的人设,让用户自己选择。

简里里:我可能不会沿着这个思路来做。一是当下的AI在技术上还很难做到持续按照某个角色设定和用户互动,它会很快“出戏”。与其用AI做这个,不如直接去做游戏。另外我用最保守的精神分析设置来举例,这门学科对于心理咨询师最初的要求是“你要像一块空白屏幕”,来访者完全不了解你是谁,才更有可能将他的客体投射进咨询关系中去工作。但是预设角色后,这就会更干扰咨询的进程。

但在行业发展初期、急于抢占市场的阶段,这是最容易想到的方式。至于它是不是最好的方式?我现在也没有答案。但我觉得到明年左右,市场会初步给出结果。如果此路不通,一定会有新的产品形态出来。

36氪:这也是大家比较担心的问题,逐渐已经出现一些与AI进行情感类对话而造成的负面案例。尤其是对一些既往就有心理疾病苗头的人群,怎么保证他们的安全?

简里里:出现在新闻报道上的可能都是相对极端、少量,但很有色彩的事件。在海外,确实有一些地区开始明确立法,不允许AI介入心理治疗或心理咨询。国内目前讨论的不算多,因为行业发展还非常初期。

就像大家都会责怪游戏危害青少年,但事实上,应该是青少年先在生活中受到了创伤,游戏才成为弥补情感空缺的替代品。AI也是一样。我认为,更清晰的伦理讨论和立法一定是重要的,但它不该被一刀切。

标签: 心理咨询 心理 简里里 人类 咨询师 用户 产品 陪伴 情感 问题 来访者 能力 传统 模型 小时 人群 大家 方式 专业 行业 对话 心理健康 状态 学科 阶段 意义 情绪 结果 不太可能 逻辑

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。