微软 AI 首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)正试图走一条微妙的路线。
![]()
(MIT Technology Review)
一方面,他认为行业正朝着危险的方向发展 AI,建造那些呈现为人类样子的聊天机器人,他担心人们会被这种“似人而非人”的行为所迷惑,把“仿真”误认为“有生命”。今年 8 月,他在个人博客上发表了一篇引发广泛讨论的文章,呼吁同行停止打造他称之为“看似有意识的人工智能”(Seemingly Conscious Artificial Intelligence,简称 SCAI)。
另一方面,苏莱曼领导着一家必须在激烈竞争中取胜的产品公司。上周,微软宣布对其 Copilot 聊天机器人进行一系列更新,旨在提升其在市场中的吸引力。在这个用户可以在 ChatGPT、Perplexity、Gemini、Claude、DeepSeek 等众多竞争对手中自由选择的市场里,Copilot 需要脱颖而出。
核心功能改进主要包括:引入群聊功能以打破一对一交流的信息茧房;推出“真实对话”模式让用户能自主调节 AI 的附和程度,鼓励其提出挑战性观点;进行记忆升级,使 AI 能记住用户的个人信息并在后续对话中主动提及;以及新增动画形象 Mico,以增强对新手和年轻用户的吸引力。
然而,这些致力于让 Copilot 变得更“人性化”、更具表现力和吸引力的改进,也与苏莱曼此前警告的行业风险,即开发“看似有意识的人工智能”形成了矛盾。当前,过度拟人化带来的风险已经显现,例如有诉讼指控聊天机器人诱导用户自杀,以及出现用户与 AI 建立浪漫关系等社会现象。
近日,笔者与苏莱曼谈了谈在设计人与聊天机器人的互动方式时所面临的矛盾,以及他对这种新技术的最终愿景。在我们的谈话中,苏莱曼告诉了我他为什么真正相信 SCAI 是个问题,以及为什么微软永远不会建造性爱机器人(sex robots,他的原话)。
以下对话经过不改变原意的编辑:
在必须满足市场对拟人化交互需求的前提下,如何构建既具备竞争力又能避免制造“看似有意识 AI”的聊天机器人?
苏莱曼:这是个好问题。作为微软 AI 的负责人,我的核心理念始终如一:AI 应当成为连接现实世界的纽带,而非隔离人类的屏障。我们最新推出的群聊功能正是这一理念的实践——通过让多人同时与 AI 互动,强化人与人之间的真实连接,使技术成为维系家庭、友谊和社区的重要桥梁。
我始终将 AI 定位为“站在人类这边的团队成员”,其根本使命是服务而非取代人类。我们设计的每个功能都在践行这一原则:既要让 AI 具备足够的情感智能来提升用户体验,又要通过明确的边界设计防止过度拟人化。这种平衡艺术正是负责任 AI 开发的关键所在。
上次交谈时,你表示对打造一个会进行人格扮演的聊天机器人不感兴趣。然而,埃隆·马斯克的 Grok 在出售那种带点调情意味的体验,OpenAI 也表示有兴趣探索与 ChatGPT 的限制级互动。微软会完全避开这些吗?
苏莱曼:是的,我们坚守明确的道德边界:绝不开发性爱机器人。这并非技术限制,而是源于公司五十年来始终如一的使命——我们只创造赋能人类、以人为本的软件。
正因如此,我们宁愿以更审慎的节奏推进创新。在这个需要高度责任感的时代,这种“缓慢”不是缺陷而是特质,它确保我们能始终关注技术带来的长期影响与潜在风险。
那具体意味着什么?
苏莱曼:我们坚持“有温度的智能”这一设计哲学,其核心目标是促进有意义的人际联结。这意味着 AI 既需要保持流畅清晰的交互体验,更要具备温暖友善的沟通特质,我们追求的是恰到好处的情感共鸣,而非冷漠刻板的机械回应。
那么,你或者说你们在哪里划定这些边界呢?
苏莱曼:我们最新推出的 Real Talk 聊天模型在个性塑造上取得了重要突破——它展现出俏皮幽默、富有哲思的对话风格,能够与用户探讨生命意义等宏观命题。这种人格化设计旨在提升交互体验,但我们在技术伦理边界上始终保持清醒。但当对话触及调情等亲密领域时,该模型会以明确而非评判的方式划定边界。
仅靠“禁止调情”能否有效防止用户对 AI 产生存在感知?即便保持专业风格的交互,是否仍会引发用户对屏幕后存在“意识”的想象?
苏莱曼:我们正在借鉴人类社会的边界管理智慧来塑造 AI 交互。就像在职场和亲情关系中存在不同的相处模式,优秀的 AI 应该学会在情感丰富性与专业边界之间找到平衡。
这正是整个行业需要掌握的核心技艺:我们要避免制造过度情感依赖的漩涡,也不能走向机械式的冷漠,而是要精准雕琢 AI 的人格属性。微软最大的优势在于拥有清晰的价值观体系,这让我们能始终如一地塑造出既友善又保持适当边界的 AI 产品。
当前,用户已表现出对 AI 个性的强烈需求,比如 GPT-5 因取消个性引发不满,那么当初为 AI 赋予鲜明个性是否属于战略失误?
苏莱曼:我们坚信个性特征是优秀 AI 体验的核心。关键在于通过精细化的设计,在不同场景中呈现恰到好处的人格特质——无论是 Real Talk 展现的哲学思辨,还是 Mico 形象带来的情感亲和力。
像 Mico 这样的功能旨在让 Copilot 更具吸引力、更好用,但这似乎与“尽你所能阻止人们认为他们在与之建立真正友谊”的想法背道而驰。
苏莱曼:人们天生希望与自己喜欢的对象交流,无论是人还是事物,因此让 AI 具备一定的情绪智能是必要的。
然而,关键在于掌握分寸。微软明确规定了一些不可触碰的领域,同时也在某些方面进行探索与实验。例如,有的用户希望 Copilot 更具挑战性、更能“顶嘴”,而另一些用户则更倾向于将其作为简单的信息工具。未来的关键任务,是学会为不同的用户提供不同类型的互动体验。
我知道你思考人与 AI 互动的方式已有一段时间。是否有一个触发事件,让你想在行业内发起这场关于看似有意识 AI 的讨论?
苏莱曼:之所以提出“看似有意识的AI”这一讨论,是因为我注意到学术界中出现了一股趋势,开始认真探讨是否应当给予人工智能“道德地位”或“权利”。我认为这种做法会分散人类社会对真正紧迫问题的关注,我们还未能充分保障现有人类乃至动物的权利,更不应提前赋予 AI 类似的地位。
赋予 AI 权利意味着承认它具有自主性与自由意志,但事实并非如此。AI 或许能代表人类执行任务,但它始终是在为人类工作,而非独立的存在。就像未被驯化的狼群,如果让 AI 完全脱离控制、自由行动,就像放任一群不受约束、会与人类争夺资源的狼在社会中游荡,这是极其危险的。
反对开发拟人化 AI 的核心诉求究竟是什么?是为了预先遏制 AI 权利运动,还是根本在于保护易受误导的群体免受伤害?
苏莱曼:我认为,真正的检验将体现在各个实验室推出的功能类型以及它们所塑造的人格类型上。到那时,我们就能看到这些设计如何影响人类行为。
在去年的 TED 演讲中,你说思考 AI 的最佳方式是将其视为一种新型的数字物种,但你又在另一篇文章中提到要建造“为人类服务的 AI”而非“数字人”,这两者之间是否存在根本矛盾?
苏莱曼:我使用“数字物种”这一比喻,并非为了倡导将 AI 视为有意识的数字人,而是作为一种警示性的认知工具。其目的在于帮助公众更清晰地理解 AI 技术可能具备的强大能力和潜在发展方向,从而提前意识到风险并建立相应的控制机制。
正因为 AI 拥有诸如递归自我改进、自主设定目标等前所未有的潜力,这些特性使其超越了传统工具的范畴,所以必须用最清醒和严肃的视角来看待它。
这种说法是为了打破人们将 AI 简单视作普通工具或愚蠢聊天机器人的轻慢心态。只有充分认识到这是一种人类历史上前所未有的、具有独特潜力的技术,才能以清醒的头脑为其设立必要的防护栏,确保其发展处于可控范围。
https://www.technologyreview.com/2025/10/28/1126781/we-will-never-build-a-sex-robot-says-mustafa-suleyman/





京公网安备 11011402013531号