山自
AGI不是一个特别有用的词。
8月11日清晨,OpenAI CEO Sam Altman在CNBC《Squawk Box》上轻描淡写的一句话,直接把自家官网挂了6年的使命宣言确保通用人工智能(AGI)惠及全人类推进了语义回收站。
三天前,GPT-5刚刚上线;同一天,媒体爆料OpenAI正与Thrive Capital洽谈以约5000亿美元估值完成新一轮老股转让。一边是史上最贵的AI公司,一边却是CEO带头拆台行业图腾。这一幕怎么看都像是科幻片里的反转桥段。
Altman的改口并非即兴发挥,而是OpenAI在技术、商业、监管三条战线上同步换挡的外显:
技术换挡:从全能神回到多面手,用分级能力框架替代AGI or not的二元叙事;
商业换挡:收入狂奔到年经常性收入(ARR)200亿美元,却仍坚持长期亏损,用资本杠杆对冲盈利压力;
监管换挡:主动稀释AGI概念,降低国会山对一家私营公司即将造出神的敏感阈值。
下文将用三条主线拆解这场祛魅运动背后的算盘与代价。
GPT-5没有奇点,只有刻度,一场渐进式发布会
8月8日,GPT-5向所有ChatGPT用户推送。OpenAI官方话术是:更聪明、更快、更有用,尤其写作、编程、医疗问答三大场景。然而社交媒体上的高频词却是就这?
南安普敦大学Wendy Hall教授直言:从各方面看,这是一次渐进升级,而非革命。
如果我们把历次GPT模型按参数量×训练效率×推理速度做一个简化版的能力刻度尺,会发现:
GPT-3 → GPT-3.5:刻度+1,解锁Few-Shot提示;
GPT-3.5 → GPT-4:刻度+2,多模态、逻辑链显著增强;
GPT-4 → GPT-5:刻度+1.5,代码一次性通过率从67%提到81%,医疗
执照考试从80%升到87%。
每一次都更好,却没有任何一次出现垂直陡增。Altman在内部全员会上承认,按照他个人定义(能够持续自主学习并自我改进的系统),GPT-5离AGI仍有距离。
能力分级:OpenAI的新标尺
既然AGI已被宣布失效,OpenAI拿什么向客户和投资人讲故事?答案是能力分级。
去年11月FinRegLab AI研讨会上,Altman首次提出用L1-L5框架取代AGI叙事:
L1 聊天机器人(Chatbot)
L2 推理者(Reasoner,人类水平的问题解决)
L3 代理(Agent,可执行多步任务)
L4 创新者(Innovator,可辅助科学发现)
L5 组织者(Organization,可完成整个组织的工作)
GPT-5被内部评估为L2+,即在某些子领域摸到L3门槛,但依旧缺乏长期记忆、自主规划与环境交互的闭环。这套说辞的好处显而易见:
对于客户:采购决策不再押注全能神,而是可落地的能力模块;
对于监管:把一步登天拆成五级台阶,减缓奇点恐慌;
对于投资人:把终局估值拆成里程碑估值,每一级都能再融资。
越赚钱,越亏钱,狂奔的ARR与烧钱的GPU
根据CNBC拿到的数据,OpenAI 2024年预计亏损50亿美元,对应收入37亿美元;而2025年ARR即将突破200亿美元,亏损却同步放大。Altman在镜头前直言:只要模型能力曲线继续陡峭,理性选择就是持续亏损。
把这句话翻译成财务模型:
收入侧:ChatGPT订阅(20美元/月)、API调用(每1k token 0.06美元)、企业定制(年费百万级)三线井喷;
成本侧:训练GPT-5一次性烧掉约6.3亿美元,推理成本随着用户量指数级增加;
资本侧:5000亿美元估值=未来现金流折现+奇点期权,后者需要持续讲故事。
换言之,OpenAI正在用亏损购买更大亏损的权利,只要故事不被证伪,资本就会继续加注。
从非营利到半营利再到影子IPO
2015年,OpenAI是非营利;2019年,转为封顶盈利;2025年,它正进行一次影子IPO不上市,却让老股东和新基金以5000亿美元估值交易存量股。
这么做的好处:
1、避开SEC繁琐披露,继续把训练数据、算法细节、安全风险留在黑箱;
2、避免公开市场季度财报对长期亏损的拷问;
3、用稀缺老股制造饥饿营销,把估值锚定在最高一级。
Altman在采访中笑称:不上市真好。翻译过来就是:只要还能用私募市场的无限子弹,就不会把自己放到聚光灯下。
把造神改写成造工具华盛顿的AGI过敏症
2024年夏天,美国参议院举行了三次AI闭门简报会,主题从AI安全升级为AGI治理。议员们最担心的问题:如果OpenAI宣布实现AGI,是否意味着一家私营公司拥有了准国家级别的权力?
Altman在国会作证时,曾用AGI就像电网来打比方,试图说明OpenAI会成为基础设施而非权力本身。但显然,这套说辞未能打消疑虑。于是,2025年我们看到OpenAI主动降格:
不再提AGI时间表;
用能力分级取代通用;
强调工具属性,淡化主体意识。
欧盟AI Act的镜像
欧盟AI Act把AI系统按风险分为最小、有限、高、不可接受四级。OpenAI的L1-L5与欧盟四级有微妙的映射关系:
L1-L2对应最小风险,只需自我声明;
L3开始涉及高风险,需要第三方审计;
L5则触碰系统性风险,面临最严苛义务。
通过提前自我分级,OpenAI把监管博弈前置到标准制定阶段,而不是等到产品上线后被追罚。
谁受益,谁受伤?
受益者
OpenAI自身:概念降级换来监管红利、资本红利、客户红利三杀;
微软:Azure绑定OpenAI,5000亿美元估值越稳,云收入越稳;
应用层开发者:不用再猜奇点哪天来,直接调用API做垂直场景。
受伤者
竞品:Anthropic、Google DeepMind仍高举AGI大旗,显得不合时宜;
学术圈:AGI曾是AI伦理、AI安全领域最大的科研经费磁石,概念被稀释后,部分项目面临重新立项;
公众:在狼来了叙事反复拉扯后,对AI的敬畏感下降,可能带来新一轮AI疲劳。
当造神结束,造利开始
八年前,OpenAI用一篇《用强化学习打Dota2》的博客点燃了大众对AGI的想象;八年后,Sam Altman亲手把这段叙事收进博物馆。
AGI的大旗被折叠收好,但AI的镰刀和锤子仍在日夜轰鸣。历史从来不是线性上升,而是在造神祛魅再造神的螺旋里曲折前行。下一次,当某家公司宣布已实现L4创新者时,但愿我们仍能记起2025年8月,Sam Altman在CNBC镜头前那句轻描淡写的提醒:重要的不是名词,而是刻度。