![]()
雷递网 乐天 3月31日
智谱CEO张鹏今日在智谱2025年年报沟通会上表示,智谱曾经历过质疑,经历过挫折,但无数事实反复验证了一个判断——智能上界的提升,是大模型AGI时代唯一的"第一性"。
张鹏说,AGI时代的商业价值可以归结为一个简洁的公式:智能上界 × Token消耗规模。智能上界决定了定价权,Token消耗规模决定了价值体量。
以OpenClaw为代表的应用引爆Token消耗狂潮,面对2月以来供不应求的市场,智谱将继续加大投入国产芯片软硬一体化调优,将推理性能压榨至极限,不是为了短期盈利,而是为了支撑那条不断上扬的、高质量Token消耗的指数曲线。
在这场关于算力、数据与智能的马拉松里,胜负手永远在于对这个公式的极致执行。
张鹏指出,在大模型时代,当大模型具备长程任务执行的闭环能力后,核心竞争力将重塑为 TAC(Token Architecture Capability,Token 架构能力)。
TAC = 智能调用量 x 智能质量 x 经济转化效率。未来,衡量一个个体或组织价值的标准,不再是掌握了多少信息,而是其作为Token 架构师,在给定预算下构建复杂 Agent 系统并驱动大模型完成复杂Agent系统的自主运行。
智谱的目标是成为提升全社会 TAC 的基础设施,让每一滴 Token 都能转化为可交付的经济增量。
![]()
据悉,智谱今日发布2025年全年业绩,这是其上市后首份财报。智谱2025年营收7.24亿,较上年同期的3.12亿增131.9%。MaaS商业飞轮全面运转,MaaS API平台实现ARR 17亿(约2.5亿美元),同比提升60倍;且盈利能力大幅改善,MaaS API平台毛利率同比提升近5倍至18.9%。
以下是智谱CEO张鹏在电话会议上讲述的内容:
张鹏:今天我想和大家分享三件事:我们如何坚定地走在AGI的道路上,MaaS商业模式如何验证了我们的战略判断,以及我们探索智能上界的下一个突破。
一、坚定追求AGI,智能上界的持续突破
智谱自2019年创立起,就将“让机器像人一样思考”作为公司唯一的战略目标。六年来,这个目标从未动摇。我们也曾经历过质疑,经历过挫折,但无数事实反复验证了一个判断——智能上界的提升,是大模型AGI时代唯一的"第一性"。
在这个第一性原理之上,我们进一步认识到:让智能普惠大众的载体是Token。每个人、每个组织都可以通过Token调用智能产生价值。因此,AGI时代的商业价值可以归结为一个简洁的公式:智能上界 × Token消耗规模。智能上界决定了定价权,Token消耗规模决定了价值体量。
过去一年,智谱的关键词叫做“智能上界”。
2025至26年我们完成了GLM-4.5、4.6、4.7到GLM-5、5-Turbo的模型迭代。每一代模型的发布,都在国际最具影响力的评测中刷新纪录——保持全球开源模型第一、中国模型第一,在全球模型中仅次于GPT、Claude和Gemini。
换句话说,我们已经稳定地进入了全球AI的第一梯队,与世界上最顶尖的三家公司同台竞技。a16z引用GLM-5与Claude Opus 4.6作为开源与闭源差距明显收窄的论据。GLM-5在Artificial Analysis Intelligence Index榜单达到50分,这是开放权重模型首次达到这一分数。
智谱始终坚持GLM自研架构,2025年智谱是"Vibe Coding"(氛围编程)的先行者,模型Coding能力在全行业取得广泛认可。随着旗舰模型GLM-5的发布,我们再次率先完成从Vibe Coding到Agentic Engineering(智能体工程)的跨越——AI不再是简单的代码生成器,而是具备自主规划、测试与迭代能力的“工程师”。在架构底层,我们通过 Muon Split 优化策略及 MLA-256 改进,实现了稳定的模型训练,在和 GQA-8 相同性能的情况下显著减少了 KVCache 占用;通过动态稀疏注意力机制,攻克了长序列推理的计算量难题,实现部署成本降低到原来的 50% 且性能无损。
我们还推出Slime框架实现异步强化学习的效率革命,解决了智能体长时序任务的空转痛点,实现了生成与训练的完全解耦。通过Prefill-Decode (PD) 分离与心跳容错机制,Slime最大化了GPU利用率并确保了大模型训练的鲁棒性。配合我们独创的直接双面重要性采样算法,我们克服了异步训练中的动作-奖励对齐难题,使模型能从超1万个真实软件工程环境中高效学习。这套体系支撑了GLM-5-Turbo作为全球首款OpenClaw基座模型的诞生,实现长链路安全执行。
我们深知算力自主的重要性,GLM-5的国产化适配已超越简单的算子移植,进入了Co-design(软硬协同设计)阶段。在底层内核层面,通过Lightning Indexer等定制化融合内核与FlashComm通信优化,我们最大限度隐藏了内存访问与通信延迟。这种深度调优让GLM系列在国产芯片上跑出了比肩国际顶级芯片的推理效率,实现了“智能上界+自主计算底座”的技术闭环。
进入2026年,我们的关键词叫做“token量”。以OpenClaw为代表的应用引爆Token消耗狂潮,面对2月以来供不应求的市场,我们将继续加大投入国产芯片软硬一体化调优,将推理性能压榨至极限,不是为了短期盈利,而是为了支撑那条不断上扬的、高质量Token消耗的指数曲线。我们坚信,在这场关于算力、数据与智能的马拉松里,胜负手永远在于对这个公式的极致执行。
二、MaaS驱动的商业飞轮:从模型能力到商业化Scaling
接下来汇报核心业绩。在展开数据之前,我想先请各位关注一个全球性的范式变化。过去一年,Anthropic是全球AI行业最受关注的公司之一,它的增长逻辑非常清晰:专注于把最强的模型通过API交付给企业和开发者,让智能参与创造经济价值。
Anthropic的ARR从24年底ARR 10亿美金,到25年底90亿美金,这证明了一件事:当模型足够强,API本身就是最好的商业模式。智能的质量创造定价权,企业和用户的深度使用创造增长的Scaling。
同样的商业模式与增长正在智谱身上发生。
2025年公司总收入7.24亿人民币,同比增长131.9%,是国内收入规模最大的大模型公司,超出我们自己年初设定的目标,这是市场对我们长期坚持“基座模型+API平台+生态”战略的最好印证。
截至目前,我们的编程、智能体及企业级大模型与超过400万中小企业及开发者共建生态,覆盖全球218个国家和地区。
核心增长极是智谱MaaS平台(也就是开放平台及API业务)的全面爆发。当前,智谱的MaaS平台ARR约17亿元,在过去12个月提升60倍。通过对推理侧的极致工程优化,我们大幅度降低token单位成本,实现业务盈利水平的大幅改善,MaaS平台毛利率提升近5倍至18.9%,远超行业水准。
Anthropic的早期增长依靠模型被全球开发者高频使用,智谱的增长同样如此——开发者是感知智能上界最敏锐的群体。2025年智谱在国内第一家推出编程套餐“GLM Coding Plan”,迅速覆盖全球,付费开发者规模快速突破24.2万,Token调用量6个月涨了15倍。
Anthropic约80%的收入来自企业级API调用服务,与其类似,依托BigModel.cn,智谱MaaS平台已成为连接基础模型与400万企业应用及开发者的枢纽。中国前10大互联网公司中已有9家每天深度调用GLM,每一代模型发布后24小时内即获得字节、阿里、腾讯等头部大厂的官方接入。
基于高阶智能带来的底气,我们的API调用定价在一季度提升83%,即便如此,市场依然呈现出供不应求的情况,调用量增长400%,再次印证了高质量token是当下的稀缺资源,谁掌握了智能上界,谁就掌握了定价权。
除了聚焦Coding以外,智谱也是国内Agent布局最早的模型厂商,从全球首个手机Agent AutoGLM到国内首个一键安装的AutoClaw。2026年3月,继Coding Plan之后我们推出Claw Plan,上线仅两天订阅用户即破10万,上线20天订阅用户突破40万,这验证了智能体长链路任务的巨大商业空间。
在全球化维度上,我们实现了Token在全球范围内的价值变现,屡次模型发布在国际市场广受关注,目前,GLM模型已全面部署于Google Vertex AI、AWS Bedrock、Fireworks、Cerebras等全球顶尖云服务商,并入驻OpenRouter、Vercel等国际主流模型聚合平台,是OpenRouter付费模型排名NO.1。GLM已成为国际知名Coding平台(如Windsurf)、知名CodingAgent平台(如OpenCode)的默认模型。
以智能上界为壁垒,以API为主要产品形态,这是Anthropic和智谱正在兑现的商业路径。公司已成为国内付费Token消耗量最高的厂商之一,更关键的是,智能上界的突破推动Token消耗量的指数级增加——随着模型越强、用户的使用场景越深度和复杂、Token调用量随之越来越大。Anthropic过去1年ARR的10倍增长、智谱API平台的60倍增长,均反映增长不再是线性的。同时,商业上的正反馈支撑我们投入更大的算力和研发,进一步抬升智能上界,这一飞轮已经转动起来。
三、面向未来:智能上界突破与社会生产力
智谱不是一家传统意义上的软件公司,我们是一个以 AGI 为信仰的原生智能实验室。我们的护城河不在于算力的堆砌,而在于对智能本质的底层解构,以及将这种理解转化为社会生产力的定力。
展望 2026,智能范式将从轻量化的 Vibe Coding(氛围编程)向工业级的 Agentic Engineering(智能体工程)演变,再进化为具备自主规划、环境感知与自我迭代能力的数字工程师,最终实现跨越多步迭代、具备逻辑一致性的 Long-horizon Task(长程任务)闭环执行,这将进一步带来智能上界的突破与 Token 调用的指数级增长。
进入 TAC 时代:人人都是“Token 架构师”
在大模型时代,当大模型具备长程任务执行的闭环能力后,核心竞争力将重塑为 TAC(Token Architecture Capability,Token 架构能力)。TAC = 智能调用量 x 智能质量 x 经济转化效率。未来,衡量一个个体或组织价值的标准,不再是掌握了多少信息,而是其作为Token 架构师,在给定预算下构建复杂 Agent 系统并驱动大模型完成复杂Agent系统的自主运行。智谱的目标是成为提升全社会 TAC 的基础设施,让每一滴 Token 都能转化为可交付的经济增量。
从“对话接口”到“大模型操作系统”(LLM-OS)
传统的 OS(操作系统) 是硬件资源的调度者,而 LLM-OS(大模型操作系统) 是智能的调度者。大模型正在吞噬软件,未来的计算平台将不再是 App 的堆叠,而是 API 商店与 Agent 矩阵的协同。在 LLM-OS 架构下,模型直接理解模糊意图、拆解长程任务并调度全栈资源。谁的模型进入了系统内核,谁就掌握了下一代计算的定义权。我们致力于将 GLM 打造为这一自治系统的核心引擎,实现从云端 API 到设备级原生智能的位势跃迁。
智能输出革命:高质量 Token 的“全球工厂”
随着 OpenClaw等应用驱动的 Token 消耗进入指数级轨道,一场智能输出革命正在发生,首先是推理再中心化:凭借超大规模集群的规模经济与极致的推理优化,云端大参数基模的效率将进一步提高。其次高质量 Token 出海:依托中国在能源、芯片适配及 IDC 运维上的全产业链优势,我们正在实现从“中国制造”向“中国智能”的跨越。Token 出海不是低价竞争,而是基于 GLM-5 等顶级智能水平的“高质优价”输出。我们要向全球供应的,是代表认知智能上界的、具有极致性价比的生产要素。
回顾2025年,智谱交出了一份不错的成绩单:收入规模行业第一,开放平台及API业务ARR增长60倍。全集团综合毛利率41%,并且拥有在行业中罕见的定价权。展望2026年,我将继续沿着"中国的Anthropic"这条商业路径,以模型智能为根基,以API平台为引擎,做TAC时代高价值的智能基座。
通往AGI的征途漫长,我们将继续脚踏实地,用极致的基座能力探寻未知的边界。
雷递由媒体人雷建平创办,若转载请写明来源。




京公网安备 11011402013531号