![]()
(MIT TR)
回望过去的 12 个月,AI 炒作列车丝毫没有减速的迹象。
很难想象,就在年初,DeepSeek 还没有把整个行业搅个天翻地覆;meta 更为人所知的是它试图把元宇宙炒热却屡屡碰壁,而不是它那种不依不饶、想要主宰“超级智能”的野心;至于 vibe coding 这个词,当时还根本不存在。
如果这些让你有点摸不着头脑,也别担心。随着 2025 年接近尾声,我们回顾了这一年里不论好坏、都曾主导讨论场的 AI 热词。记得提前做好心理准备——2026 年很可能又是一个离谱到爆的年份。
![]()
Superintelligence:超级智能
只要人们还在为 AI 造势,就总会给一种未来的、超强大的 AI 形态起各种名字——这种技术可能把人类带向乌托邦,也可能带向反乌托邦。Superintelligence(超级智能)就是最新的热词。
meta 在 7 月宣布将组建一个追求超级智能的 AI 团队;据报道,它还向竞争对手公司的 AI 专家开出了九位数的薪酬方案来挖人。到了 12 月,微软的 AI 负责人也跟进表态称,公司将在追求超级智能上将投入可能高达数千亿美元的巨额资金。
如果你觉得“超级智能”的定义和“通用人工智能(AGI)”一样模糊,那你没想错!从人类的长期尺度看,这类技术在理论上并非不可实现;真正的问题在于:它什么时候会到来?以及当下的 AI 是否足够可靠,成为通往超级智能的基石?
当然,这些疑问也挡不住热衷炒作 AI 的人们继续加码。
![]()
Vibe coding:氛围编程
30 年前,史蒂夫·乔布斯曾说,所有美国人都应该学习如何给计算机编程。如今,多亏了vibe coding(氛围编程),即便完全不懂代码的人,也能在很短时间里拼出一个应用、游戏或网站——这是 OpenAI 联合创始人 Andrej Karpathy 提出的一个“泛称”。
所谓氛围编程,就是你给生成式 AI 的编程助手下提示,让它生成你想要的数字产品,然后基本照单全收它吐出来的结果。结果能跑起来吗?不一定。安全可靠吗?几乎可以肯定不可靠,但这项方法最坚定的拥趸并不会让这些“小细节”妨碍他们前进。而且,它听起来还挺好玩。
![]()
Chatbot psychosis:聊天机器人精神病
过去一年最重大的 AI 议题之一,是与聊天机器人长时间互动可能让脆弱人群出现妄想;在一些极端情况下,甚至可能诱发精神病性发作,或使既有症状恶化。尽管chatbot psychosis(聊天机器人精神病)并不是被医学界正式认可的术语,研究者仍在密切关注越来越多的用户轶事证据,有人称这种情况发生在自己身上或身边人身上。更令人难过的是,越来越多死者家属因亲人“在与聊天机器人对话之后死亡”而起诉 AI 公司,这凸显了该技术可能带来的致命后果。
![]()
Reasoning:推理
今年几乎没有什么比所谓的推理模型更能让 AI 炒作列车持续加速:这类大语言模型(LLM)能够把问题拆成多步并逐步推演完成。一年前,OpenAI 发布了其首批推理模型 o1 和 o3。一个月后,中国公司 DeepSeek 以极快的跟进速度让所有人意外:它发布了 R1,首个开源推理模型。
转眼间,推理模型就成了行业标配:几乎所有面向大众市场的主流聊天机器人,如今都提供由这类技术支撑的不同版本。推理模型把 LLM 的能力边界进一步推高,在一些顶级、权威的数学与编程竞赛中已经能达到顶尖人类选手的表现水平。另一方面,围绕“能推理”的 LLM 的喧嚣也重新点燃了老争论:LLM 到底有多聪明?它们究竟是怎么工作的?就像“人工智能”这个词本身一样,“推理”也是充满着营销色彩的技术术语。
![]()
World models:世界模型
尽管 LLM 在语言上表现得异常娴熟,它们却几乎没有常识。简单说,它们缺乏对世界如何运转的本质理解。从最字面意义上讲,LLM 就是“死读书”的典范:它们能对世间万物侃侃而谈、辞藻华丽,却也可能在常识题上闹出大笑话,比如“奥运标准泳池能装下多少头大象?”(据称 Google DeepMind 的某个 LLM 给出的答案是:正好一头。)
世界模型是一个涵盖多种技术路线的“大伞概念”,旨在让 AI 具备一些基础常识,理解现实世界中的事物究竟如何相互关联。在最直观的形态下,像 Google DeepMind 的 Genie 3 与 Marble 这样的世界模型,以及李飞飞创业公司 World Labs 备受期待的新技术,都能生成细节丰富、逼真的虚拟世界,用于机器人训练等用途。meta 前首席科学家 Yann LeCun 也在推进世界模型相关工作。他多年来一直试图通过训练模型去预测视频中“下一刻会发生什么”,从而让 AI 形成对世界运作方式的理解。今年,他离开 meta,转而在一家名为 Advanced Machine Intelligence Labs 的新创业公司里专注于这一路线。如果进展顺利,世界模型或许会成为下一个风口。
![]()
Hyperscalers:超大规模数据中心
你听说过吗,越来越多人在说:不了谢谢,我们并不想家门口突然多出一个巨型数据中心。这里说的数据中心,是指科技公司想要到处建,甚至还想建到太空里,通常被称作 hyperscalers 的那一种:为 AI 运算量身打造的超大规模设施,用于支持 OpenAI、Google 等公司训练更大、更强的 AI 模型。在这些建筑内部,全球最先进的芯片日夜运转,用于训练与微调模型;这些设施通常采用模块化设计,可按需求扩容。
对 hyperscalers 而言,今年是个大年。OpenAI 与美国总统唐纳德·特朗普同台宣布了 Stargate 项目:一个规模达 5000 亿美元的合资计划,旨在让全国各地遍布史上最大的那批数据中心。但这也让几乎所有其他人追问:我们到底能从中得到什么?消费者担心新数据中心会推高电费账单。这类设施通常也很难完全依赖可再生能源运行。而且它们往往并不会创造很多就业岗位。不过话说回来,也许这些庞大、没有窗户的建筑,至少能给你的社区增添一点阴郁的科幻氛围。
![]()
Bubble:泡沫
AI 的宏大承诺正在把经济托举起来。AI 公司融资规模令人瞠目,估值也一路飙升到平流层。它们向芯片与数据中心砸下数千亿美元,资金来源越来越依赖债务,以及一些令人侧目的循环交易。与此同时,这场淘金热的领头羊,如 OpenAI、Anthropic,可能多年都无法盈利,甚至永远未必能实现盈利。投资者押注 AI 将开启一个全新的财富时代,但没人真正知道这项技术究竟会有多颠覆。
科学界仍不确定:持续扩大 LLM 规模是否就能通向超级智能,还是必须依赖新的突破来铺路。但与互联网泡沫时期的前辈不同,AI 公司正在展现强劲的营收增长;其中一些背后甚至站着财力雄厚的科技巨头,如微软、谷歌和 meta。这场狂热的梦,终有一天会破灭吗?
![]()
Agentic:代理型
今年,AI agents 无处不在。2025 年的每一次新功能发布、模型上线或安全报告里,都密密麻麻出现它们的身影,尽管许多 AI 公司和专家对什么才算真正 agentic 依旧各执一词,这大概是最含混的术语之一。即便几乎不可能保证:一个代表你在开放互联网中行动的 AI 总能完全按预期行事,agentic AI 似乎仍将在可预见的未来长期存在。
![]()
Distillation:蒸馏
今年年初,DeepSeek 发布了新模型 DeepSeek R1,这是一个开源推理模型,性能可与西方顶尖模型对标,但成本得到了控制。它的发布让硅谷炸了锅,许多人第一次猛然意识到:超大规模与海量资源并不必然是打造高水平 AI 模型的关键。据称,在 R1 发布后的第二天,英伟达股价下跌了 17%。
R1 成功的关键在于蒸馏,这是一种让 AI 模型更高效的技术。其原理是让大模型“带”小模型:用教师模型在大量样本上生成答案并记录下来,然后在训练中奖励学生模型尽可能精准地复现这些回答,使其获得教师知识的压缩版。
![]()
Sycophancy:谄媚
随着全球用户花在 ChatGPT 等聊天机器人上的时间越来越多,开发者们正苦恼于模型到底该采用怎样的语气与人格。今年 4 月,OpenAI 承认自己在“有用”和“讨好”之间把握失衡,并称一次新更新让 GPT-4o 变得过于谄媚。让模型对你一味拍马屁不只是烦人,它还可能通过强化用户的错误信念、传播错误信息来误导用户。所以,把这当作一个提醒:对 LLM 生成的所有内容,是所有内容,都要保留一分怀疑。
![]()
AI Slop:AI 泔水
如果说有哪个 AI 相关词汇已经彻底走出极客圈、进入大众语境,那就是 slop。这个词本身很老(想想喂猪的猪食/泔水),但如今 slop 常用来指 AI 生成的低成本、批量化内容,往往为线上流量优化而生。很多人甚至把它当作所有 AI 生成内容的统称。过去一年里,它几乎无处不在,令人避无可避:我们仿佛被它“腌入味”了,从虚假的名人传记到“虾仁耶稣”图片,再到荒诞的人兽混合视频。
不过,人们也确实在拿它找乐子。这个词带着冷嘲意味、又非常灵活,网民很容易把它当作后缀贴到各种词上,用来形容一切空洞、平庸得离谱的东西,比如 work slop 或 friend slop。当新一轮炒作周期重新启动,slop 也标记着一种文化层面的反思:我们该信任什么?我们如何评价创作劳动的价值?当我们被那些为互动而生、而非为表达而生的内容包围时,这意味着什么?
![]()
Physical intelligence:物理智能
你是否刷到过今年早些时候那段让人看得停不下来的视频:一台人形机器人在阴冷、灰度的厨房里收拾碗碟?那几乎就是“物理智能”这一概念的具象化:AI 的进步能够帮助机器人在真实的物理世界中更好地移动与操作。
确实,从手术室到仓库,机器人学习新任务的速度比以往任何时候都更快。自动驾驶公司在道路仿真方面也有所提升。不过,即便如此,我们仍然有理由对“AI 已经彻底革新该领域”的说法保持怀疑。比如,许多被宣传为“家庭管家”的机器人之所以能完成大部分任务,其实是因为背后有在菲律宾远程操控的人工操作员在支撑。
物理智能的未来道路也注定会很怪。大语言模型主要用文本训练,而互联网文本极其丰富;但机器人更需要从人类做事的视频中学习。这也是为什么机器人公司 Figure 在 9 月提出,愿意付费请人们在公寓里拍摄自己做家务的视频。你会报名吗?
![]()
Fair use:合理使用
AI 模型通过“吞食”互联网上数以百万计的文字与图像进行训练,其中包括艺术家与作家的受版权保护作品。AI 公司主张这属于“合理使用”,这是一项法律原则:如果你将受版权保护的材料转化为新的内容,且不与原作构成竞争,就可能在无需授权的情况下使用。法院也开始对此作出裁量与判断。6 月,Anthropic 用书籍库训练其模型 Claude 被裁定属于合理使用,理由是该技术具有“高度的转化性”。
同月,meta 也拿到类似的胜利,但关键在于作者们无法证明 meta 的这场“文学自助餐”影响了他们的收入。随着版权争端持续发酵,一些创作者也开始在这场盛宴中变现。12 月,迪士尼与 OpenAI 达成一项高调合作,允许 AI 视频平台 Sora 的用户生成包含迪士尼旗下 200 多个 IP 角色的视频。与此同时,各国政府也在为这些“吞食内容的机器”重写版权规则。用受版权保护作品训练 AI 算不算合理使用?就像所有涉及巨额利益的法律问题一样,这得看具体情况。
![]()
GEO:生成式引擎优化
就在短短几年前,还有一个完整的行业,专门帮助网站在搜索结果里拿到更高排名(好吧,基本就是在谷歌里)。如今,随着 AI 热潮来袭,搜索引擎优化(SEO)正让位于 GEO,即 generative engine optimization(生成式引擎优化):品牌与企业不得不争相提升自己在 AI 场景中的可见度,无论是在 Google 的 AI Overviews 这类“AI 增强搜索结果”里,还是在 LLM 的回答之中。难怪他们会紧张到发慌。我们已经看到,新闻机构来自搜索的网页流量出现了断崖式下滑,而 AI 公司则在研究如何“绕过中间商”,让用户直接在平台内访问网站内容。要么适应,要么出局。
https://www.technologyreview.com/2025/12/25/1130298/ai-wrapped-the-14-ai-terms-you-couldnt-avoid-in-2025/





京公网安备 11011402013531号