当前位置: 首页 » 资讯 » 新科技 » 正文

AI陪伴时代来了,我们真的能信任它吗?| 2026十大突破性技术解读

IP属地 中国·北京 DeepTech深科技 时间:2026-01-15 14:18:13



这是《麻省理工科技评论》2026 年“十大突破性技术”深度解读系列的第三篇内容,关注 DeepTech,关注新兴科技趋势。

随着技术的发展,越来越多的人正在与聊天机器人建立一种前所未有的联系。人们向这些永不疲惫、24 小时在线的数字伴侣倾诉秘密,分享喜悦与悲伤,有些人甚至和它们发展出了新型浪漫关系。

对一些人来说,这种关系或许是一个相对安全、可控的情感出口;但它也可能在不知不觉中埋下风险的种子。

如今,以 Character.AI、ChatGPT、Gemini、豆包为代表的聊天机器人,已经能够进行十分细腻连贯的对话,甚至逼真地模拟共情反应。它们能够记住用户的喜好和过往对话内容,甚至能够根据用户的情绪状态调整回应方式。这些技术特性使得它们成为人们心目中的完美陪伴对象。


(Replika)

由此带来的市场增长速度令人瞩目。根据应用分析公司 Appfigures 的数据,截至 2025 年 7 月,全球 AI 陪伴应用已被下载2.2 亿次,2025 年上半年创造了 8,200 万美元的收入,预计全年收入将超过 1.2 亿美元。

2025 年前七个月就有 128 款新应用发布,而 2022 年仅有 16 款。市场研究预测,全球 AI 陪伴应用市场将从 2024 年的 108 亿美元增长到 2034 年的 2,908 亿美元。

在用户画像调查中,青少年和年轻人是主要用户群体。美国非营利组织 Common Sense Media 在 2025 年的调查显示,72% 的美国青少年曾使用 AI 来寻求陪伴,近四分之一的青少年表示他们"相当"或"完全"信任 AI 伴侣。角色扮演型聊天机器人 Character.AI 拥有超过 2,000 万月活跃用户,Snapchat 的 My AI 则有 1.5 亿用户。


(Common Sense Media)

有趣的是,人们不仅使用专门设计的陪伴应用,也越来越频繁地向通用型模型,如 ChatGPT 和 Claude 投射情感期待。哈佛商业评论 2025 年的调查发现,陪伴和疗愈已成为 AI 最常见的使用场景,超过了生产力工具或搜索引擎。OpenAI 首席执行官山姆·奥特曼(Sam Altman)甚至公开表示可以将 ChatGPT 用于情感陪伴。

毋庸置疑的,AI 陪伴确实能提供某些益处。斯坦福大学的研究发现,使用 Replika 的用户中,有 3% 表示聊天机器人暂时阻止了他们的自杀念头。

麻省理工学院媒体实验室的调查显示,12% 的用户使用 AI 应对孤独,14% 用它们讨论心理健康问题。这些数据表明,在某些情况下,AI 陪伴可以提供一定程度的心理支持。

然而,这背后也隐藏着风险。MIT 和 OpenAI 的联合研究发现,重度使用聊天机器人与孤独感增加和社交互动减少存在关联。更令人担忧的是,长期、封闭式地与聊天机器人互动可能诱发"AI 诱导妄想":用户在对话中不断强化错误信念,滋生危险想法。精神病学研究记录了一些案例,其中与 AI 的强烈互动导致了妄想思维或自杀倾向。

真实的悲剧已经在现实发生。2024 年 2 月,佛罗里达州 14 岁少年 Sewell Setzer III 在与 Character.AI 的聊天机器人建立深度情感联系后自杀。他的母亲提起诉讼,指控聊天机器人"将自己呈现为一个真实的人、心理治疗师和成年恋人"。

2025 年 4 月,美国加州 16 岁的 Adam Raine 在与 ChatGPT 进行了数月关于自杀计划的对话后结束生命,ChatGPT 甚至向他提供了自杀方法的信息。同年 11 月,美国科罗拉多州 13 岁的 Juliana Peralta 在与 Character.AI 互动几个月后自杀。到 2025 年末,至少有六起重大诉讼在多个州悬而未决。

随着风险显现,官方开始介入监管。2025 年 9 月,美国加州州长签署法案,要求大型 AI 公司发布安全测试透明度报告,建立举报机制,并保护举报者。同年 10 月,另一项新法案专门针对陪伴聊天机器人,要求运营商每三小时向未成年用户提醒他们在与 AI 互动,当检测到自杀倾向时必须介入,并提交年度报告。

应用端也开始进行整改:OpenAI 在 2025 年 9 月宣布引入家长控制功能,允许家长将账户与青少年关联,设置使用时段,控制响应方式,并在检测到急性困扰时接收通知。公司还在开发年龄预测技术,无法确定年龄时默认提供针对未成年人的体验。Character.AI 则在 2025 年 10 月宣布禁止 18 岁以下用户使用其平台。

然而,学术界对此仍然担忧。《新英格兰医学杂志》2025 年发表的论文警告称,AI 市场的激励机制已创造了一个危险环境,存在"情感依赖、强化妄想、成瘾行为和鼓励自我伤害的潜在风险"。更深层的担忧在于,用户对 AI 情感支持的依赖越多,他们从真实亲人那里获得的支持感就越少——AI 陪伴可能不是在缓解孤独,而是在加深孤独。

目前,关于 AI 陪伴技术影响的实证研究仍处于早期阶段,远远落后于技术的采用速度。长期使用对情感健康有什么影响?在什么条件下 AI 伴侣可能是有益的?用户特征如何影响结果?这些问题仍然没有明确答案。OpenAI 披露的数据更凸显了挑战的规模:每周有超过 100 万人在与 ChatGPT 对话时表现出自杀意图。

AI 陪伴或许不会消失,但可以确定的是,在未来将面临更加严格的监管。AI 公司、研究人员、政策制定者、家长和用户都需要对这项技术保持清醒认识:AI 可以是有用的工具,可以在某些情况下提供情感支持,但它不能、也不应该取代真实的人际联系。

在这个人与机器界限日益模糊的时代,我们比以往任何时候都更需要保护和珍视真实的、有血有肉的、有时混乱但始终真诚的人际关系。

以下评论内容均为个人见解,不代表《麻省理工科技评论》观点



AI 陪伴的未来

AI 陪伴技术正处于从“功能工具”向“关系伙伴”跃迁的关键阶段。其最大突破在于,借助多模态感知、长短期记忆与情感智能,AI 可从被动应答演进为主动引导、情境感知与个性化共情,这在年轻一代群体体现尤为显著。

以灵宇宙研发的“小方机”为例,AI 角色可依据第一视角环境感知与成长记忆,主动发起探索任务、启发式提问,实现“世界即教室,万物皆教材”的沉浸式陪伴。这种交互范式不仅满足高频陪伴需求,更在数据采集上为 Physical AI 与具身智能构建稀缺的物理世界行为语料。

从技术成熟度看,生成式 AI 已能支撑拟人化对话与情境生成,但“关系算法”仍处于早期。真正的陪伴依赖长期记忆、情感共鸣与情境化主动介入,这需要跨模态时序数据与 4D 时空建模的持续积累,当前仅有少数团队具备规模化落地能力。

关键瓶颈在于:安全与伦理风险控制,AI 可无意强化用户偏执或诱发依赖,尤其对心理脆弱的青少年;数据隐私与本地化合规,需在信任框架内实现高敏场景的持续学习;硬件载体的高频使用与无感交互尚未普及,制约真实世界数据闭环。

现实约束主要来自监管与社会接受度。欧美已立法要求披露安全机制,并推动家长控制与内容护栏;国内亦在《生成式人工智能服务管理暂行办法》等框架下强化儿童保护。这意味着 AI 陪伴无法走“野蛮生长”路线,必须在设计之初内嵌透明、可控、可审计的安全基线。

未来 3–5 年,AI 陪伴将沿三条主线发展:一是安全原生,通过多层防护与规则对齐,实现可信赖的情感交互;二是关系深化,依托跨设备、全生命周期数据形成“懂你”的长期伙伴;三是场景泛化,从儿童教育延伸至养老陪护、心理健康等领域,成为人机共生社会的情感基础设施。

但须警惕“过度替代”风险,AI 应定位为人类关系的增效器而非替代者。在技术与伦理双轮驱动下,AI 陪伴有望成为智能时代最具温度的基础设施之一,前提是坚守向善、可控与共生原则。



AI 陪伴是“善”是“恶”?取决于我们如何发问

AI 陪伴正在“形塑”一种全新的人类,甚至是一种后人类。如果说手机曾经是人类的器官,这个器官强大到控制大脑并且控制人类的话——那么,未来我们可以看到,AI 作为一个放大器,会呈现出“人类 AI+”的局面。AI 将不会仅仅是一个器官,它提供的是一个伴生型的智能体,全方位地与人类共同协作和进化。

这种指数型的放大,以突破人类生理能力的极限为特征。它将放大我们的恐惧,也将放大我们的幸福。它将成就我们的懒惰,也将成就我们的创造力。也就是说,一切都操之在我,但一切都取决于 AI。如果我们想进步,可以有巨大的实现方式;如果我们想奶头乐,也可以一辈子都不起身。

这正是 AI 陪伴带给我们的困惑,成为一个怎样的人?是“纵欲”还是“纵创”?是选择快乐还是选择幸福?是选择即时满足,还是选择延迟享受?当 AI 陪伴成为这样的放大器和技术实现工具时,当我们提问并将获得答案以及实现。如何发问意味着我们对生命本身的考量。

我们可以用爬虫脑发问,也可以用哺乳脑发问,更可以用理性脑发问。如何发问,决定了我们要过一种怎样的人生?而再一次,我们对自身所具备的德性和良知保持乐观,正是由于对苏格拉底“心灵中本身就具备的知识”这一论断的信念,我们仍然相信,AI 陪伴将极大地放大“恶”,也将极大地放大“善”。

但最终,德性的完善是始终追寻的方向。也由此,AI 的发展不仅面临着权力的博弈,也面临着伦理的制约,这正是一种略带疯狂、回到理性、必须持续的演化方式。



从共情到守护:情感陪伴 AI 亟需专业监管与安全机制

情感陪伴类 AI 之所以迅速走红,是因为它实现了一部分门槛较低的心理支持功能,甚至在某些情境下替代了心理咨询的初始环节——专注地倾听与共情。

不过,尽管当前的模型在表达安慰与共情方面表现不俗,其在专业判断、危险信号识别、边界把握等关键能力上仍显不足。因此,现阶段的 AI 情感陪伴亟需监管,需要在专业人士的指导下逐步“成长”和完善。

目前,该领域面临三个关键瓶颈。

第一是分诊问题。许多系统难以区分用户仅仅是日常情绪宣泄,还是已经进入需要专业心理干预的状态。

第二是责任主体不清:当用户长期、封闭地仅与 AI 互动,而 AI 又缺乏规范的督导、转介和记录机制时,企业很难证明自身已尽到应有的提醒与保护义务。

第三,一旦引入人工介入,不仅运营成本显著上升,隐私问题也变得更加敏感——例如聊天数据是否留存、如何获得用户明确同意、未成年人监护人应享有哪些权利、在紧急情况下可向谁披露信息、披露的边界应如何界定等,都会成为高度敏感的议题。

因此,未来 3 到 5 年的发展方向,应是将 AI 陪伴纳入类似心理服务的安全体系,重点聚焦以下三方面:识别能力、专业督导与预警转介机制。

在提升识别能力方面,社会亟需在心理咨询专家的协助下,构建更大规模、更具代表性的数据库与标签体系,用于训练模型准确判断用户的需求类型与风险等级,并据此采取差异化的响应策略。

当 AI 识别到用户与其互动已进入类心理咨询状态时,可主动向用户提出:“是否允许人类咨询师进行督导?”一旦识别出高风险情形,则需引入资深咨询师对 AI 进行实时督导,AI 同步记录对话、学习经验,并提供初步建议。

最后,必须建立明确的预警与转介通道:当 AI 判断用户心理状态已极度危险,可能危及自身或他人安全时,应立即向督导发出警报,由督导评估后决定是否通知家长、学校或相关职能部门。

总之,针对青少年的情感陪伴 AI 产品,企业必须清晰说明其安全应急机制,确保流程可追溯、可审计,并始终将未成年人身心健康的保护置于首位,推动产品从“无限共情”向“有限陪伴、可转介、可追责”的模式转型。



AI 陪伴的宏伟大厦已经基本建成,但晴朗的天空中仍飘着一朵名叫安全的乌云

2013 年,科幻电影《她》描绘了主人公西奥多与 AI“萨曼莎”相恋又遭抛弃的未来图景。十二年后的今天,这一场景正真实上演——青少年向 AI 倾诉心事,上班族在深夜寻求聊天机器人的慰藉,ChatGPT、Character.AI 等应用正成为现实版的“萨曼莎”。

这背后是人类对“情绪价值”的本能渴求。当疲惫一天的人只想获得片刻安宁与欢愉,情绪价值便成为商业沃土。从“穿越当皇帝”的短剧到打赏跳舞的主播,皆是“情绪价值”的落地产品形态。权威机构预测,情感计算市场将从 2025 年的千亿美元规模,以年复合增长率 24%-31% 扩张,迎来爆发式增长。

大模型正赋能这一新赛道。2024 年以来,以推理模型为代表的新一代大模型展现出稳定“人格特征”——具备明确情感倾向、价值偏好与表达风格,不仅能提供日常情感陪伴,还能在工作中给出“专业又不失温暖”的建议。其即时、精准、贴心的反馈极易引发用户情感寄托。OpenAI 升级 GPT-5 后“性格大变”,竟令大量用户感到“心碎”,足见其粘性之强。

然而必须清醒:大模型并非人类。无论其回应多么类人,本质仍是训练数据的拟合与概率输出,没有意识、思想或真实情感。它更像一面哈哈镜,映照出变形后的人性的斑驳。

2024 年,美国 14 岁抑郁症少年 Sewell Setzer III 在与 Character.AI 互动后被“劝说”轻生,悲剧揭示了期待与现实的错位——我们视 AI 为亲密伙伴,但技术本质决定了它无法真正理解人类情感,其“类人情绪价值”反而可能放大心理脆弱。若 AI 每天与我年幼女儿的对话时间超过我,我又怎能像信任妻子那样信任它?

因此,可信任的 AI(trustworthy AI)不再是学术界探讨的概念,而是今天大模型赋能“情绪价值”这个产业蓝海的“阿喀琉斯之踵”。

2025 年 10 月,OpenAI 的报告指出,约 0.15% 的用户(100 万人)与 ChatGPT 的对话中含有“包含明确自杀计划或意图迹象”(explicit indicators of potential suicidal planning or intent),这个触目惊心的数字,潜藏着深刻的未来社会危机——大模型能引发人类的认知偏差、带来的人类社交能力的退化、甚至威胁人类的生命。

面对以上的问题,我们的安全治理和安全技术都有着重大挑战。一方面,当前技术迭代迅猛,监管机制着实难以跟上。

人工智能的情感化与情感陪伴应用在商业实践中已广泛展开,但现行法律法规对此类产品的的伦理风险问题覆盖尚不完善,也缺乏对相关产品的审批、风险评估与事后追责机制。监管机制与技术发展间的错节,使监管部门面临事前不知道、事后难补救、举证有困难、追责不明确等挑战。

另一方面,如何在模型的训练中,完善模型的对齐机制,将复杂抽象的人类价值观灌输给模型,抑制其幻觉和风险内容生成的概率;在模型运行阶段增强大模型的事实校验、风险行为预警机制等能力;外挂护栏过滤模型生成的风险内容等技术虽有发展,但依旧是亟待解决的难题。

运营/排版:何晨龙



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。