
文|胡香赟
编辑|海若镜
封面来源|Unsplash
当越来越多的人选择让AI成为自己的临时“心理依靠”,人与AI之间的关系会发生怎样的改变?
10月底,Open AI公布了一组在升级模型处理心理健康问题能力时统计到的数据。这组数据显示,Chat GPT上的8亿活跃用户中,有超百万人正在倾诉自杀倾向,或对其存在较高程度的情感依恋。
人类允许AI走进自己的情感世界,倾听最隐秘的心事,这个逻辑其实不难理解。较之于动辄数百元一次的传统心理咨询服务,AI凭借几乎零成本的服务门槛、24小时在线的及时性,以及算法赋予的无限包容能力,让情感支持变得触手可及。
“AI和心理咨询都依赖语言,这是个自然而然的事。”简单心理创始人兼CEO简里里认为。
2014年,简里里辞去大学心理老师的工作,创办了简单心理,从为心理咨询师和来访者做对接的移动平台起步,后逐渐搭建起从科普教育、线上线下社区,到心理咨询、企业服务的数字化精神心理健康服务平台,To C端累计提供超300万小节的专业心理咨询服务。今年夏天,简单心理上线了面向C端用户的AI咨询助理产品。
从业十余年,简里里亲历了传统心理咨询行业发展中的种种局限,比如受众有限、资源不均,期待AI能打破固有壁垒。但同时,她又刻意、谨慎地与当下主流的侧重陪伴和安抚的AI产品开发逻辑保持距离。
简里里认为,心理咨询不是一种创造及时满足的服务,而是要引导来访者直面痛苦、走出创伤。但同时,它与人类天然渴望倾诉和陪伴的情感需求又不完全泾渭分明,两者存在诸多重叠之处。
过去,分别作为处理心理健康问题的方式,专业心理咨询和轻量的情感陪伴都只能“服务于在人生特定阶段愿意接受其服务模式的人”。但如今,AI的出现,有可能带领两者各自“向中间迈出一步”,甚至创造出一种全新的服务范式。
那么,未来,AI真的会比人类心理咨询师做得更好吗?我们该如何让AI更合理地服务于人的心理健康?就这些话题,简里里为我们带来她的思考。
对话(经编辑):

在一些情况下,
AI可以“比新手咨询师做得更好”
36氪:大概是从什么时候开始,你觉得简单心理需要在AI上做一些布局?
简里里:我算是Open AI比较早期的付费用户,但当时主要把它作为工具在用,想看看它能干些什么,没有进行过情感类的对话。后来在一次和GPT的随意对话中,我发现它可以把我讲的上下文内容联系起来解读,我当时觉得,“它可以捕捉到了”。
这其实只是大模型能力的“涌现”。过去,这通常是咨询师需要花很多时间来学习的一个基础能力。因为你不能无节制地跟着来访者的话题走,要能够从许多个片段对话中理解来访者没有用语言表达出来的情绪。
于是,今年年初,简单心理开始认真做这件事。我们的传统业务主要分为直接服务来访者,以及为专业心理咨询师提供培训两部分。所以在开发AI产品时仍在根据这两条线索做。
一个是面对专业咨询师的To B业务,坦诚讲我们暂时不想把它商业化,主要以服务我们自己的咨询师和学员为目标,帮助他们提高执业水平,进而提高平台内整体的服务质量和能力。
To C层面,我们推出了AI咨询助理,承担一部分客服或以前的咨询助理的工作。最开始,我们没有给用户动机,没有引导他们把AI咨询助理当成咨询师来聊天。因为当时我们更想验证的是,人们在心理咨询这个需求上到底愿不愿意使用AI。
36氪:很多人都在和AI咨询情绪、情感问题,怎么理解“人们在心理咨询这个需求上是否愿意使用AI”?
简里里:就是从产品设计上讲,我们不想把它做成一个轻量的AI陪伴类产品。现在大家谈的“AI+心理”是一个很宽泛的概念,比如和AI谈恋爱、和AI不间断地聊天,当前已经有很多这种产品了,我并不认为市场上会缺一个这样的心理健康类APP。
但回到简单心理,我们只懂心理咨询。在心理咨询这个范式里,它和情感陪伴有比较清晰的区别。
首先,心理咨询很少给建议和答案。心理咨询是在“我对你有足够多了解”的基础上给予一些评估或启发,这个启发最好是咨询师和来访者共同讨论、领悟出来的。所在在简单心理的AI产品上,我们预设了大量启发式询问,这可能不适合大多数寻找情感陪伴或答案的人。
此外,我们也经常向来访者科普,心理咨询不是一个令人愉悦的过程,你必须不断面对你的创伤。它也不会像普通AI那样为了把对话延展下去而无限顺从你,它能接纳你的情绪,但也要告诉你,很多事情是有边界的。
这是我们希望简单心理的AI产品和其他陪伴类AI产品不一样的地方。所以我们在训练AI时,努力让它不要和用户在问题的表象上纠缠,而是寻找更深层次的原因。比如面对一位想离婚的用户,不要去讨论“该不该”离婚,而是去理解“离婚”这个决定对于用户意味着什么、对于用户的自我认识产生什么样的影响等等。
这时,很重要的一个问题就是,用户能不能忍受和一个AI进行很辛苦的、不断寻找答案的对话?他们愿不愿意用这样的方式和AI互动?
我们现在的答案是,很多人是愿意的。简单心理的To C的咨询助理AI在今年8月正式上线,它没达到很完美的状态,但我们发现,使用它的用户不止是来寻求助理的行政服务,70%的用户都会向它倾诉,而且反复在用;同时,它也吸引了一部分过去可能不太了解心理咨询,或经济上无力负担相关服务,但有强烈的自我探索欲望的用户。在这个维度上,简单心理的用户群是有拓展的。这给了我们很大信心。
36氪:你觉得用户为什么会这么自然地接纳AI?
简里里:我们的感受是,用户对AI反而更宽容。我们在用户访谈时也会问,和AI对话会不会觉得它不理解你,或者它是个机器。用户说都有,但这并不妨碍他们将AI视为一个稳定、可信任的对象。
我猜测,或许是用户觉得AI更可控。因为面对一个人类心理咨询师时,你不知道对方是怎样的人、会给自己什么样的反馈,这些都不可控。但面对AI时是相反的,所以他们愿意让渡一些信任给AI。
36氪:听起来他们觉得AI表现得不错。
简里里:在一些简单的、比较短的片段咨询里(比如20个对话来回),AI已经表现得还不错了,有时候比新手咨询师做得更好。我们调研的用户也有人提到,他觉得相较于市面上的一些通用模型,简单心理的产品表现得更接近人类心理咨询师的说话方式。
某种程度上,我觉得AI在片段咨询里表现好,是因为片段咨询有一定技巧,共情能力够不够、某句话探索的方向对不对,有相对清楚的答案。但是,心理咨询的周期很长,在长时间的对话、或是多个咨询小节里,AI还能不能持续抓取记忆、如何使用过去的情绪和感受素材,融合在一起深入推进谈话;这仍是个待探索的问题。
目前,简单心理在开源模型基础上做微调,目标是希望模型尽可能地按照人类心理咨询师的回答、讨论方式来工作。但坦诚讲,由于大模型能力在不断变化,以及心理咨询业态的特殊性,我觉得这件事不太可能根据现有的方法论来做,比如依照某个方法训练模型、清洗和标注数据,它就能生成想要的结果,这个不太可能。但我们对这件事比较有耐心。

AI,给心理咨询带来“平权”的可能性
36氪:AI可以表现得不错,但还没有达到你理想中的完美状态,它“差”在哪里?
简里里:这个问题还是要回归到心理咨询的形态上。传统心理咨询“设置”中,固定的时间地点、咨询时长是一件非常重要的事。因为我们要划清边界,营造一个安全心理空间来承载来访者的情绪和创伤。正是这些时刻才能推动心理咨询的进展,让咨询师有机会和来访者进行讨论。这是行业坚持了将近百年的传统。
但AI全天候在线,意味着咨询框架带来的、使咨询发生的很重要一部分消失了。对应到产品设计上,你怎么让用户接受“这是个不会24小时在线的AI产品”这件事?
一个AI心理咨询产品,它既和人类咨询师的工作方式不一样,也不能是一个24小时在线的“好朋友”。它的咨询设置应该是什么样的?我觉得产品设计层面上,它需要被重新定义,这也是行业未来需要讨论的。
36氪:用户可能觉得24小时都在是AI很强大的优势,但放在心理咨询上不一定是好事?
简里里:我觉得是个灾难。就像人在成长过程中要逐渐形成自己的价值体系,拥有自己的社会支持系统,心理咨询的最终目标是让你能够独立,能够忍受规则、接受不如意,并和它共处。这是一个逐渐“摆脱”咨询师的过程。所以,永远的、24小时的陪伴是糟糕的。
打个比方,这个过程就像小婴儿慢慢长大,和妈妈说“拜拜”。什么情况例外呢?当一个人处在一个创伤非常严重、退行到“小婴儿”的状态时,24小时的陪伴是非常好的、是需要的。但当我们谈到大部分人在使用的心理服务,从心理咨询角度去理解的人格层面上的帮助、或者让一个人在人格层面的创伤可以被疗愈,这个产品一定不是24小时的。
36氪:针对这种咨询设置上的不同,简单心理有对应的解决方案吗?我理解用户肯定还是希望能随时和产品对话,两者听起来有些悖论。
简里里:我们有一些初步的方案,但可能等上线做一些尝试后更方便分享。
36氪:听起来,你们想做的是一个垂直领域的、小而美的产品?
简里里:我觉得如果真的能把我想的都实现,肯定就不是小而美的状态了。
简单心理过去服务的用户中,约20%-30%是那些可以在医院内诊断出疾病的用户,再往外围扩才是处在痛苦中、想寻找解决途径的人群。但在这个维度上下,仍有很多还没有做好准备付费做咨询的人,如果AI能把这部分人群拓展过来,比例已经足够大了。
举个例子,简单心理做企业端业务时一直有个困扰,我们的心理咨询服务供给和部分群体的需求其实是错配的。而心理咨询师的受训方式,决定了很多时候他们更擅长服务有相似话语体系、认知框架的人群。比如现在心理咨询的方式可能无法满足外卖员等蓝领的需求。
这是传统心理咨询学科的阶级局限。
所以,一定程度上,心理咨询的规则设置也是在“挑选”用户。举个例子:心理咨询并不鼓励用户遇到问题冲动下单。在简单心理上,用户是无法预约到当天的咨询,最早要约到第三天。因为心理咨询需要人在一个心理层面上能够“等待”的状态下,你才能更好地使用心理咨询,与咨询师讨论你的感受的状态。
但切换到一些群体时,这套模式或许很难走通。他们想要的更实际也更即时,比如夫妻长期异地分居、小朋友来城里上学不适应,怎么办?这时你和他们谈人格创伤,他们未必需要。这些群体其实也是过去10年里,我们很希望能有好的产品来服务的一部分人。他们需要情感支持,而心理咨询服务又显得太“重”了。
但AI是可以往中间走一步的。它一定还走不到“你的小孩不想上学,我现在就告诉你怎么让他去上学”的状态,但它可以给你一些及时的建议和回复,让人们的情绪得到倾听、也获得一些方法。
36氪:就像你的身边有一个接受过心理咨询学科培训的朋友,当你情绪崩溃时,他可以给予一些直接的支持。在当下的时间点上,AI是这样一个角色。
简里里:是的。因为,实际上有倾诉需要的用户非常多。过去10年,简单心理一直设置了免费的倾诉热线,但始终是供不应求的状态。但AI可以处理这些,它目前还无法提供传统意义上的一周一次、长期进行的咨询,但可以成为一个懂心理知识的朋友,能在一定时间内给你一些办法和支持。我觉得这个是有意义和价值的。
做简单心理10年,从人文角度,我们想服务更多的人群,但在传统心理咨询师培养体系下,这非常困难。
今年开始做AI之后,我们做了很多心理咨询低支付能力者的用户访谈,这也让我重新找到了创业的意义感。不管它最终会形成怎样的商业价值,它首先是对人有帮助的。接下来,在产品方面,我们也会做一些更有针对性的设计。
36氪:未来,AI需要越来越像人类心理咨询师,还是跟着它自己的脚步发展,创造出一个可能不相同的范式?
简里里:我觉得会形成新的范式,创造新的可能性。但当下的主要任务,是让AI先具备人类心理咨询师的能力。至于它能不能比人类心理咨询师做得更好,甚至补充一些人类没有的东西,这是未来的事。

替代人类咨询师?
不,其实是机会
36氪:你提到AI可能比人类咨询师做得更好,AI冲击就业也是大家普遍关注的问题,怎么看它对心理咨询行业可能产生的影响?
简里里:这是各行各业都会面临的问题。首先,我对人类心理咨询师的存在很有信心。可以做个类比,简单心理10年前上线时就开始提供视频咨询的选项,但直到现在,将近一半的用户还是会选择面对面咨询。无论技术多么发达,人类始终有和人类沟通的诉求。
此外,我自己的体验是,人类所有的技术变革其实都很慢。技术可能很快就成熟,但让人类讨论立法、伦理、设置,肯定会有很多阻碍。
十几年前,我们的第一个投资人Timothy Draper曾给过我们很多创业tips,其中一条就是“你最终会发现,让人们接受变化是无比困难的事情”。我觉得某种程度上,这也给了人类很多时间去准备。
36氪:套用那句话,“替代咨询师的不是AI,是会用AI的咨询师”。可能对于咨询师来说,AI也会给他们机会。
简里里:从长远来看,我觉得AI可以比较好地完成人类心理咨询师70%-80%的工作;但另一种更容易实现的目标是,AI为咨询师提供更强的辅助、学习能力。
比如,从业者群体中,新手心理咨询师是比较弱势的存在,因为督导训练很贵。但AI就像一个24小时在线的督导,如果你遇到比较困难的个案可以直接和它讨论,还不用在意督导对自己的评价、督导的性格如何。
我现在非常努力地让公司的咨询师运营团队先用好AI,再通过他们鼓励咨询师用AI。这是一个特别好的工具,如果你觉得它给的答案不够好,就换个问法,但一定要用。
36氪:未来,人类心理咨询师和“AI咨询师”之间的关系可能会是怎样的?
简里里:心理咨询这个行业一直以来的问题就是好的心理咨询师不够多、优质的服务太昂贵。所以我觉得未来会形成分化,有一部分用户仍然会期待人与人之间的交流,但更广泛的群体会转向AI。
心理咨询这个领域比较容易被AI技术关注,是因为它大量使用语言,而AI看起来擅这个。所以当下这个阶段,很多人想进入这个赛道是很自然的事情。十年前大家做上一代互联网产品时也是这样,有技术、有逻辑,我们就先上,再根据用户的反馈调整。但到了这一步,大家看用户反馈的角度已经是不一样的了,再改进的方向也会不一样。如果往后再看五年、十年,大家做出来的产品形态一定不同。
36氪:你觉得,未来的“AI+心理”产品会是什么样的形态?现在看,大家好像都在设计不同的虚拟形象,给他们很清晰的人设,让用户自己选择。
简里里:我可能不会沿着这个思路来做。一是当下的AI在技术上还很难做到持续按照某个角色设定和用户互动,它会很快“出戏”。与其用AI做这个,不如直接去做游戏。另外我用最保守的精神分析设置来举例,这门学科对于心理咨询师最初的要求是“你要像一块空白屏幕”,来访者完全不了解你是谁,才更有可能将他的客体投射进咨询关系中去工作。但是预设角色后,这就会更干扰咨询的进程。
但在行业发展初期、急于抢占市场的阶段,这是最容易想到的方式。至于它是不是最好的方式?我现在也没有答案。但我觉得到明年左右,市场会初步给出结果。如果此路不通,一定会有新的产品形态出来。
36氪:这也是大家比较担心的问题,逐渐已经出现一些与AI进行情感类对话而造成的负面案例。尤其是对一些既往就有心理疾病苗头的人群,怎么保证他们的安全?
简里里:出现在新闻报道上的可能都是相对极端、少量,但很有色彩的事件。在海外,确实有一些地区开始明确立法,不允许AI介入心理治疗或心理咨询。国内目前讨论的不算多,因为行业发展还非常初期。
就像大家都会责怪游戏危害青少年,但事实上,应该是青少年先在生活中受到了创伤,游戏才成为弥补情感空缺的替代品。AI也是一样。我认为,更清晰的伦理讨论和立法一定是重要的,但它不该被一刀切。





京公网安备 11011402013531号