![]()
文 | 新浪Insights
“现在的人工智能离真人还差得很远,并没有像电视剧《西部世界》里那般。现在人工智能处在工具以上、伙伴未满的状态。”
在2025中国人工智能大会暨全国人工智能学院院长(系主任)年会上,清华大学新闻与传播学院长聘教授、博士生导师蒋俏蕾表达了她对于人机关系的思考。
常常会有人将AI智能与人类智能做类比,思考如今的人工智能有多像人,但在蒋俏蕾的研究中,在不同维度的智能对比上,AI还远达不到人类智能的程度。其中最关键的差异,是AI可以模拟情感、却无法真正拥有情感,至少在目前是。
那些人类的脆弱之处,恐惧、欲望、痛苦,恰恰是AI无法取代的地方,因为AI不会像人类一样面临生老病死。人正是因为生命有限,才会珍惜时光,孕育出勇气、牺牲、同情和无条件的爱。这种复杂的情感,也许AI可以从字面上读懂,但无法发自内心理解。
蒋俏蕾认为,也许未来具身智能机器人的身体能够做到和人的生理结构高度类似,比如害怕时心脏会狂跳,那时才有可能会接近人类真实的情感。
她还提出了一个更具想象力的演进——也许AI并不会以人类智能为参照物“进化”,而可能会成为与人类的思考方式、协作方式完全不同的新物种,不一定遵从人类的逻辑,甚至有涌现出其他文明的可能性。
就像自然世界中还有除人类外的其他智能生物,人类需要学着与多元智能打交道,以更开放的心态去接受共生进化,这也许是未来社会运作的重要逻辑。
以下是新浪新闻和清华大学新闻与传播学院长聘教授、博士生导师蒋俏蕾的对话:
“人工智能未必像人”
新浪新闻:您在演讲中提出了“人工智能的升维与人机传播的跃迁”这一概念,能否用更通俗的方式解释一下,其中的“升维”和“跃迁”具体指什么?需要在哪些层面实现跨越?
蒋俏蕾:简单来说,“升维”是指人工智能展现出的能力维度变得更丰富多元,智能层面也更加全面。“跃迁”则是随着AI能力的增强,人和AI的关系样态变得更多元——从早期的工具属性,逐渐可能发展为伙伴关系,还会出现互补、竞争、协作、共融等更多可能性,两者是紧密联动的。
AI在未来也许会向两个路径发展:一种是把AI类比成人,认为它是在模拟人类智能,最终会逐渐演进成越来越像人的智力、行为或情感;另一条则是横向打开的可能性,AI可能成为与人类智能不同的全新智能样态,一种与人类的思考方式、协作方式不一样的新物种,它不一定遵从人类的逻辑,甚至有涌现出其他文明的可能性。
就像自然界中还有除人类外的其他智能生物,人类需要学着与多元智能打交道,以更开放的心态去接受其他可能性,这种可能性也会融入到我们社会的发展进程中,这些都是需要去应对的交互关系。
新浪新闻:在您看来,未来5到10年,人机交互的革命性变化最有可能先发生在哪个领域?
蒋俏蕾:从个人观察和体验的角度来看,我认为教育领域可能最先发生革命性变化。
一方面,我身在教育行业内部已经感知到了巨大变化:学生群体积极使用AI获取知识、完成作业、辅助思考;学校也在推动AI赋能教育,比如AI助教、智能体广场等,将课程材料投入AI系统辅助教学。另一方面,从技术特性来看,当前AI更擅长文本处理和基于文字的知识获取,而教育领域长期以来依托教材、课堂讲授等文字载体传递知识,这与AI的技术优势高度契合。
相比之下,医疗领域涉及身体、心理等多模态信息,很多内容无法完全转化为文字;家庭情感陪伴则涉及更多内隐、微妙的经历、记忆和情感,这些都是当前AI技术难以充分覆盖的,所以教育领域的变革可能会更率先落地。
新浪新闻:AI对很多行业都产生了冲击,很多人都在担心自己会不会被替代、被淘汰。您如何看待这一点?
蒋俏蕾:AI实现的是一个精简的过程,而非全面替代。比如,AI替代的是职业中重复性、可标准化的工作任务,而非整个职业。从业者的核心是找到自身的核心竞争力,将可替代的工作部分“外包”给AI,专注于AI无法完成的部分。从行业而言,相对模式化的劳动密集型工作会被 AI 最早替代,但AI在替代的过程中又会创造一些新的职业类型,比如现在有大量的人工智能伺服性的需求。
AI难有真实情感
新浪新闻:在您看来,AI未来会不会发展出真正的情感?还是说始终只能模拟共情?
蒋俏蕾:目前的大语言模型是基于文本训练,所以我们认为它的“情感”实际上是基于文本的语义感知。如果打开脑洞去说未来AI会不会有情感,那可能要寄希望于具身智能——当它有了实体的身体,基于对身体的感知和实际控制,可能才会体会到人类在物理层面的感知。
但我想,即便如此,它和人类的情感还是不完全相同的。因为具身智能机器人不会像人类一样面临生老病死这种人生挑战,那它就不能真正理解“怕”和“痛”,也不能理解什么叫“向死而生”、什么叫“牺牲奉献”。它或许能够从身体语言上读懂这种含义,但无法发自内心理解这意味着什么。
情感不是只从语言、动作上去做表层的理解,有时候是基于大家有共同的基础才能意会。如果未来具身智能机器人的身体能够和人的生理结构高度类似,比如害怕时心脏会狂跳,也许那时才会更加接近人类真实的情感。
新浪新闻:当AI在功能上越来越接近人类时,人类的独特价值在哪里?
蒋俏蕾:往往是那些看起来“无用”的能力,或者被人们认为是缺点或弱势的能力,在未来会变得尤为重要。
比如日常生活里的一些经验,你闻到烧焦的味道,经验会让你下意识认为可能是哪里起火了;或者今天我们坐在这里聊天,窗外的风特别大,这一个看似无用的体感却成为我们以后回忆起这个场景的重要细节。我们不能够被替代、无法被AI模拟的,恰恰是这些经常被忽略的能力,但到关键时候就会发生作用,我愿称之为“有用的无用”。
还有一些是我们认为的缺点,比如人会变老、会生病、会死亡,还有一些我们认为要去克服的情感,比如害怕、羞耻、脆弱等,这些也非常重要。因为害怕死,才会觉得视死如归的人很勇敢,才会很珍惜这种品质。如果每个人都像AI一样,这个身体坏了就重新换一个,那就没有所谓的死,也就没有所谓的勇敢,只会剩下功利性的算计。这也是人类无法被替代的独特性。
一个真正的人是生活中无数个细微瞬间组成的,他的成长也是踩过无数的坑才得到的感悟。AI能够在大量语料中快速找到结果,但它没有经历过程,没有体验,所以它很难具备人类这种多样性。
不要过度信任AI
新浪新闻:现在很多人会向AI倾诉工作、情感上的隐私内容,也因此引发了大家对于AI数据安全、隐私保护等忧虑,您对此有哪些见解?
蒋俏蕾:这确实存在潜在风险,未来需要平台和服务提供商从源头进行限定和规范。人机信任的核心其实是对“人”的信任,而非对AI本身。AI没有自主意识,也没有责任主体,它的行为边界需要人类通过伦理道德、法规来划定,如果缺乏明确边界,AI可能被滥用。但技术还在不断发展的阶段,有时候规则也是和技术在同步迭代和探索。
在情感层面,我认为要警惕“过度依赖AI疗愈”——抑郁、焦虑等高度自我关注的群体,若将过多疗愈的期待放在AI上,短期可能有缓解效果,但长期可能陷入更封闭的自我圈子,加剧社交孤立。
新浪新闻:在相关法律法规还不够完善的阶段,作为普通用户,我们该提升哪些能力来避免陷入信任陷阱?
蒋俏蕾:核心是提升媒介素养中的批判性素养,在技术素养越来越下沉的时候,批判性素养需要被不断地强调和提升。在法律法规尚滞后于技术发展的情况下,个人需要建立自我保护机制,不能过度信任或神化AI,可以将其作为信息源头之一,但绝非唯一依据。
获取信息后,需与权威专业媒体的内容进行比对验证;尤其是在教育、医疗、重大经济决策、人身安全等关键领域,必须进行再次核查。以前有专业机构、主流媒体等把关机制,现在大家通过AI绕过了这些环节,就需要自己为信息真实性进行把关,不能直接将AI的输出当作事实去直接应用。
新浪新闻:在您的研究中,最让您兴奋的点是什么?最担忧的点又是什么?
蒋俏蕾:兴奋的地方是可以通过AI更了解人,因为AI就像一面“魔镜”,照出了很多以往难以察觉的人类特质。比如,过去公开领域和私人领域有明确的边界,而AI打破了这些边界,让我们能通过人机互动更深入地了解人类自身的行为模式、需求和心理。
担忧之处,就像刚才聊的那样,AI正处在快速奔跑但又未被设限的阶段,这个过程中如果没有得到善用,可能会产生巨大的破坏。现在技术领域的从业者更多在推进AI应用,却较少考虑潜在风险;社会科学研究者虽有较多思考,但很难快速转化为技术层面的规范。这是需要警惕的。





京公网安备 11011402013531号