![]()
新智元报道
编辑:犀牛
马斯克在同一天两次断言「2026就是奇点之年」,称AI像一场无法暂停的超音速海啸。 从Claude Code一小时补完一年工程,到AI智能体任务时长从7个月翻番骤然加速到4个月翻番,技术曲线正在竖起成一堵「奇点之墙」。
我们已置身奇点之中!——马斯克
2026年伊始,地球首富马斯克竟然在同一天内两次断言:「2026,就是奇点之年!」
不仅如此,在随后上线的、长达3个小时的Moonshots播客对话中,马斯克进一步阐述了这一观点。
他说,我们正身处奇点之中,AI的发展速度如同一场超音速海啸,无法暂停。
同时,他也大胆预测,AGI就在今年实现!
到2030年,AI智能将超越全人类的总和,实现能力每年提升10倍的指数增长。
更加夸张的是,马斯克认为,人类不过是数字超级智能的「生物引导程序」。
![]()
一时间,奇点从科幻领域的概念,变身ASI领域的热词。
每一个身处科技前沿的人似乎都感受到了一种令人战栗的静止,像是在事件视界前的最后一次屏息。
这种静止并非无声,而是充满了高频的震颤——那是旧秩序瓦解与新神性诞生时发出的共鸣!
站在此刻,我们看到「技术奇点」与「品味奇点」正在交相辉映,「智能爆炸」与「速度爆炸」加快完美合流。
1月4日,新智元创始人、CEO杨静与奇点智能研究院院长、CSDN 高级副总裁李建忠展开了一场主题为「2026 ASI 奇点展望」的巅峰对谈,对谈内容紧紧围绕「ASI 奇点」展开。
作为新智元ASI产业图谱2026年1月号文章,本文将结合本次巅峰对谈,深入分析2026为何将成为ASI的奇点之年。
![]()
马斯克的宣判:奇点提前到来
一切始于去年的圣诞假期。
当世界还沉浸在节日的狂欢时,Midjourney创始人David Holz在社交媒体上留下了一句看似平淡,实则惊动心魄的感叹。
他宣称,自己在短短几天的假期里敲下的代码量,超过了过去十年的总和。
「一切再也不会和从前一样了。」David感慨道。
马斯克正是在此推文下回复:「我们已进入奇点。」
被AI能力震惊的显然不只马斯克一人。
xAI的联合创始人Igor Babuschkin发出感慨:「有些年头风平浪静,可有些星期却浓缩了数十年的变迁。」
这句话精准地捕捉到了奇点临近时的「时间扭曲」效应。
传统的发展模型大都是线性的,技术进步是累积的、渐进的;而在奇点中,进步是递归的、爆发的。
![]()
就连谷歌的首席工程师Jaana Dogan都被AI编程工具Claude Code的表现所震惊。
她公开分享了自己的亲身经历:谷歌内部一套一年时间都没有完全搞定的分布式智能体编排系统,Claude Code用一小时就搞定了。
Jaana甚至特地强调;「this isn't funny」(这一点也不好笑)。
她只是冷静地意识到,事情已经开始脱离了人类的掌控。
![]()
AI编程:从「智能补全」到「自主改进」
过去,程序员们还只习惯于将AI视为「补全工具」,但如今最新一代AI工具不仅能智能续写代码,还能够自主规划任务、自动调试错误,甚至改进自己的工具链。
微软副CTO Sam Schillace刚刚敏锐地指出,我们已经越过了「智能补全」的临界点,进入了AI主导开发的阶段 。
可以说,AI编程已经越过了「奇点」阈值,软件开发范式正在发生历史性转变。
![]()
前meta首席工程师、Claude Code创始人、负责人Boris Cherny透露,他在过去一个月内的新代码100%是由Claude Code自己编写的,总计达4万行。
也就是说,Claude Code正在自己给自己写代码!
这意味着,AI工具开始递归地优化自身,而这正是奇点来临的核心特征。
![]()
更关键的是,数据也支持这种指数级的跃进。
根据METR研究院的测算,当前AI模型可以独立完成任务的长度正以7个月翻一番的速度指数级增长。
但他们自己也明确提到:2024年开始加速了,出现接近4个月翻一番的迹象。
如今,最强的模型,如Claude Opus 4.5已经可以独立完成长达5小时的人类任务。
这里的「任务时长」可以理解为:在一定成功率门槛下,模型能独立完成的任务时间跨度。翻倍周期缩短意味着增长不是变快一点,而是指数曲线的斜率变陡。
METR的研究指出,如果这种趋势在2026年持续(实际上还在加速),我们将看到AI智能体能够独立执行人类需要数周乃至数月才能完成的复杂软件工程任务。
![]()
不只是软件研发,我们正看到科学研究的时间尺度也在被压缩。
最近,知名创业者Yuchen Jin就公开称,如果当年他读博时就有Claude Code和ChatGPT这样的工具,原本5年以上的博士研究,可能1年就够了。
教育、研发、创业,各行各业的节奏都在被AI重新定义。
![]()
品味奇点:当AI知道什么更好
知名预测者、《AI 2027》合著者Eli Lifland,最近发布了一个新模型:AI Futures Model。
这是一个用于预测AI能力的量化模型。
根据模型预测显示,2026年实现向ASI飞跃的概率达到了25%。
![]()
AI Futures模型中提到的一个更加引人深思的概念是「品味奇点」(Taste Singularity)。
品味指的是判断哪些研究方向是有价值的、哪些代码是优雅的。
所谓「品味奇点」,就是指AI在品味上的提升速度快于其编码能力的提升速度。
2026年,将极有可能进入到这个阶段。
当AI不仅能写代码,还能像资深架构师一样由于「品味」而拒绝低质量的设计方案时,它通往ASI的道路就被彻底铺平。
因为「知道往哪里走」往往比「走得快」更重要。
没有品味的AI能把功能堆出来,但默认接受「能跑就行」的架构。但有品味的AI会先反问约束,然后直接否掉低质量方案:这个设计会让故障定位成本指数上升,我们换成这个……
一旦AI掌握了科学发现的「品味」,它就能指导它自己在无限的假设空间中找到通往成功的捷径。
![]()
从奇点到ASI
回顾奇点概念的发展,它从来不是心血来潮的空想,而是严谨逻辑推演的结果。
早在1965年,英国数学家Irving J. Good就已经预见了智能爆炸的可能性。
![]()
他在那篇经典论文《关于第一台超智能机器的猜想》中,振聋发聩的断言:「第一台超智能机器将是人类需要完成的最后一项发明。」
让我们将超智能机器定义为一种在任何智力活动上都远超最聪明人类的机器。既然设计机器本身也是一种智力活动,那么一台超智能机器必然能够设计出比人类更优良的机器;毫无疑问,随后会出现一场‘智能爆炸’,人类的智能将被远远抛在后面。因此,第一台超智能机器将是人类需要完成的最后一项发明……
Good的这段论述奠定了奇点理论的基石。
未来学家Ray Kurzweil曾预测这一刻会在2045年到来。
然而,马斯克却将这个时间表极其大胆地拉近到了2026年。
这并非危言耸听。
哲学家David J. Chalmers在《奇点:哲学分析》中构建的严密逻辑,正在成为现实。
通往ASI的阶梯被清晰地划分为三步:
等价前提:我们能造出与人等智的AI。随着GPT-5级别模型和Claude Code的出现,这一步已在脚下。
扩展前提:如果我们能造出人类水平的AI,就能通过扩大算力和优化算法(如思维链),将其扩展为超越人类的「AI+」。
放大前提:AI+不仅比人类聪明,还具备设计下一代更强机器的能力。于是,AI++诞生了。
此刻的2026年,之所以能成为「奇点之年」,是因为我们正目睹两种爆炸的完美合流。
一是智能爆炸。AI开始自我进化,从AI+迈向AI++。
二是速度爆炸。随着AI芯片的性能提升以及超算中心的疯狂投入,硅基载体的思考速度将是人类的数百万倍。
对于AI而言,我们经历的一秒,在它们的认知维度里可能早已沧海桑田。
当AI工程师不仅比人类更聪明,而且工作速度快上无数倍时,技术进步的曲线就不再是缓坡,而变成了一面近乎垂直的高墙。
站在2026年的门槛上,环顾四周,我们已来到这堵「奇点之墙」的底端。
这是人类历史上最壮丽、也最未知的时刻。
![]()
2026:ASI奇点展望
站在2026年的初春回望,时间的流速似乎不再恒定,而是以指数级狂奔。
去年的此刻,DeepSeek以一道「开年惊雷」震醒了开源界,OpenAI开启「星际之门」。
而今,我们正身处这场文明大跃迁的暴风眼。
1月4日,这场由大学沙龙、新智元和CSDN共同主办的重磅对谈中,杨静与李建忠站在奇点前沿对话,在智能爆发的洪流中,寻找人类文明的下一个坐标。
![]()
两种倒计时:2027 vs 2035
对于ASI 的降临时间,业界一直众说纷纭。
在新智元十周年发布的「2025 ASI前沿趋势报告」中,杨静曾预测2027年将是临界点。
然而,李建忠则给出了一个更为审慎且富有人文关怀的判断:2035年。
「ASI的定义不应仅仅是参数的堆叠,」李建忠认为,它更应强调人的「获得感」。
这其中的核心,在于记忆与遗忘。
李建忠强调,人类的优势在于拥有丰富的上下文与记忆系统:我们会遗忘,会压缩,会抽象,会把不重要的丢掉,把重要的提炼成骨架。
杨静则指出大模型的短板:灾难性遗忘。
它像一个记忆力惊人的人,却缺乏「会忘的智慧」,更缺乏「把经历变成长期自我」的机制。
而这种生物学上的「缺陷」,恰恰是人类智慧闪光的缝隙。
Agent元年与锯齿状智能
回顾2025年,两位嘉宾都认为:这是Agent的元年。
对谈里有个细节让人后背发凉:过去6年,AI智能体独立完成人类任务的持续时长,大约以每7个月翻一番的速度指数级增长;而从2024年开始,这个翻倍周期突然缩短到约4个月。与此同时,AI Agent能够独立完成的编码任务时长,已经接近5小时。
这组数据真正的冲击力,不在「5小时」本身,而在于——翻倍周期突然变短。
因为一旦翻倍周期缩短,世界就会从「渐进式改良」切换到「指数式推进」:你还在用线性直觉理解明天,明天却已经用指数速度改写了后天。
因此,李建忠把Agent智能体视为2025年的一个关键里程碑。
但即便谷歌和OpenAI的模型已经在IMO、IOI上摘得金牌,令人惊叹,杨静仍追问:为什么这还不算ASI?
「因为现在的智能,是锯齿状的智能。」李建忠一语道破。
模型可以在某些狭窄领域超越人类,却还无法像人类一样拥有平滑、连贯、可迁移的通用能力。
![]()
有趣的是,对于微软和苹果在AI节奏上的「慢半拍」,李建忠给出了自己独特的商业视角:护城河太宽,既有收入未受AI冲击,反而成为了创新的掣肘。
而在国内,阿里云的强势加持让通义千问脱颖而出,腾讯则因社交基本盘的稳固而显得相对从容。
持续学习:真正的引爆点
杨静把话题更进一步:如果2026年ASI实现持续学习,用AI提升AI、递归指数爆发,智能爆炸就可能跨过临界值。
李建忠的回应很冷静:大模型还不能持续学习,现在的架构不支持。
现在模型更多依赖外在记忆,模型本身的参数还没办法在运行中被可靠地更改。
要实现递归进化,模型需要能自我更新权重。否则,只能「外挂知识」,却不能长成新的自己。
所以他认为,在未来相当长时间里,Scaling Law仍是主流路径——继续扩大规模、数据、算力与工程体系,直到遇到新的范式拐点。
世界模型:精神宇宙与物理宇宙的合流
对谈中,杨静提到谷歌的Genie 3,只通过文本指令就能实时生成完全互动、规则一致的虚拟世界。
问题随之而来:在AI自己构建的世界里训练出来的Agent,能迁移多少到真实物理世界?
李建忠表示自己更看好谷歌,并给出一个核心判断:语言是智能的核心。
他认为,语言与人类智商密不可分,语言模型具备大量推理能力,世界模型需要语言模型作为基座能力。
也就是说,虚拟宇宙的地基不是「画面」,而是「可推理的语义结构」。
李建忠看好特斯拉机器人,同时他也强调:具身智能仍要以语言模型为核心——对物理世界的理解,需要语言层面的推理,而不是只靠视觉信号。
10万亿美元门槛:最强智能决定最强生态
最后,杨静把问题推到智能与文明的交界处:文明由最高智能主导是社会进化的第一性原理。
最强智能决定最强生态,ASI甚至会成为10万亿美元市值的门槛。
杨静的问题非常直接,谁会成为第一家达到10万亿美元市值的公司?
![]()
李建忠给出的答案干脆利落:2026年很快会看到10万亿美元市值的巨头,最可能第一个冲线的是英伟达,然后是谷歌、OpenAI。
结语:新天终启,万象智生
正如新智元十周年峰会上主题所言:新天终启,万象智生。
曾几何时,奇点临近还被视作遥远而抽象的预言,可转眼间,我们已经嗅到了它的气息。
变革将以我们前所未见的速度发生,万事万物都将在更新的世界中爆发。
面对扑面而来的未来洪流,我们能做的不是退缩,而是与AI一同进化,拥抱这场前所未有的智力飞跃。
当时间被再度压缩、当可能性被无限拓展,人类将迎来巨大的挑战与机遇。
在这历史的拐点上,我们唯有保持清醒与勇气,才能与新生的ASI共舞。
2026年,奇点不再只是临近,它已经在此刻降临!
参考资料:
https://x.com/eli_lifland/status/2006186170577817612
https://x.com/elonmusk/status/2007738847397036143
https://x.com/elonmusk/status/2007831396333850868
https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/#:~:text=agents%20can%20complete,take%20humans%20days%20or%20weekshttps://blog.ai-futures.org/p/ai-futures-model-dec-2025-update
![]()





京公网安备 11011402013531号