
![]()
“未来三年,中国云市场的悬念或许不再是谁是第一,而是第二梯队的牌还能跟多久。”
作者丨胡敏
编辑丨包永刚
近日,国际市场研究机构 Omdia 发布 2025 年第三季度中国云市场报告。
密集的数据中,有一个格外扎眼:阿里云的份额从33%、34%跃升至36%。
3个百分点的跃升,看似波澜不惊,实则是强烈的异动信号。
根据边际递减效应,成熟市场里头部厂商的份额通常应该是收敛的——基数越大,增长越难。
更何况,互联网流量红利见顶,传统企业上云的主干迁移也基本完成。要想进一步开拓市场份额,这可能就像一片开垦殆尽的农田,想从石头缝里再抠出粮食,难度比之前大了很多。
但现实是,阿里云不仅守住了 33% 的基本盘,还硬生生在三个季度抢出了 3 个百分点的增量。
这种“反重力”的增长背后,动力究竟来自哪里?以及为什么是阿里云增长,而不是其他云厂商?
01
那昂扬向上的3%,究竟从哪来?
阿里云市场份额增长,几乎不太可能仅仅是因为“存量搬迁”。
曾经在云厂商做过中小客户销售的周瑜告诉雷峰网,他以前在云厂商上班时,官网一天的自然企业客户数能达到 4000-6000 个;但在后疫情时代,也就是 2022 年之后,这个数字缩水了一半。
那新的水源来自哪里?答案可能只有一个:AI 带来的结构性新增量。
不过,也有很多人会质疑,AI 对云巨头营收的带动,真有那么大吗?
这种质疑并非没有道理。在很多人的认知里,企业用 AI,无非就是调几个大模型的 API。而目前的 API 市场早已卷成红海,千问、混元、文心一言,调用一次的价格已经低至几分钱甚至几厘钱。
如果把 AI 仅仅理解为“卖 Token ”,那么即便卖出 10 亿次调用,对于年营收千亿级的阿里云来说,确实只是杯水车薪,根本撑不起那昂扬向上的 3 个百分点。
但这个质疑,忽略了 AI 落地过程中正在发生的一个质变:
在过去的一年里,企业对 AI 的需求,已经从单点试水迅速进化到了系统重构。
Omdia高级分析师章一(Yi Zhang)表示:“单一模型性能已难以满足企业在真实业务场景中的需求。AI项目规模化的核心挑战,在于如何在复杂系统中协同编排模型、数据、工具和工作流,实现可复用、可运营以及可商业化。”
简而言之,就是说,客户不再满足于“挂载”一个聊天机器人,而是开始将模型深度“植入”核心业务流。
当 AI 从一种“插件”变成业务的“心脏”,它对云资源的消耗逻辑就完全变了,它不再是按次计费的轻量级调用,而是演变成了对算力、存储、数据库等基础设施的高密度、持续性消耗。
这才是阿里云业绩“飞轮效应”的真正秘密。
我们可以看看那些正在发生的真实案例,它们每一个背后,都是一套庞大的云基础设施在运转:
在科研领域,阿里云与新材料大数据中心联合发布的钢铁材料设计大模型,表面看似一个“问答框”,但水面之下,是基于千问实现的从数据挖掘、性能预测到知识问答的全链路闭环。 为了实现最高达 90% 的预测精度,相关材料数据需要在云端进行清洗、预训练、微调和持续推理。这不仅消耗 GPU 算力,更直接拉动了对象存储和云原生数据库的用量。
在消费电子领域,科沃斯与阿里云的合作,已经深入到了“具身智能”的腹地。这不仅是让扫地机器人听懂一句“去扫厨房”,而是要在端侧和云端同时部署从 0.7B 到 7B 不同尺寸的模型。 为了支撑全球 3800 万家庭的实时智能体验,科沃斯需要构建一套极高并发的云上推理集群。这背后,是对云网络高吞吐能力和弹性计算稳定性的极致考验。
在产业互联网领域,万豪、广汽、海尔等头部企业,都在做同一件事:把千问变成自己的“专属大脑”。而要养好这个大脑,企业需要搭建专属的 RAG系统,需要向量数据库来存储海量知识库,需要高防安全产品来保护数据资产。
这就在云端形成了一个完美的“飞轮”:
先是用AI 拉动算力, 模型训练和推理,直接让 GPU 算力营收翻倍,据分析师估算,阿里云 2025 上半年 GPU 营收增长超 100%。
然后用算力拉动数据,算力的尽头是数据。AI 产生的海量中间态数据、对话记录、生成内容,让数据库和存储产品录得强劲增长。
最后,数据固化客户粘性,当企业的核心业务逻辑和数据资产都长在阿里云的 AI 基础设施上,其迁移成本变得极高,续费率和客单价自然水涨船高。
Omdia 的数据也印证了这一点:得益于 AI 的驱动,2025 年第三季度中国大陆云基础设施服务市场规模达 134 亿美元,同比增长 24%。
02
阿里云做对了什么?
得益于 AI 的强劲驱动,阿里云在过去三个季度画出了一条昂扬向上的曲线。但如果我们把视线拉宽,会发现这条曲线的另一面,是市场份额的残酷分化。
数据显示,阿里云份额攀升的同时,位列第二、第三的厂商就比较难受:华为云市场份额从 18% 下滑至 16%,腾讯云则从第一季度的 10% 下滑到了 9%。
这一升一降形成的“剪刀差”,揭示了一个极为重要的产业信号: AI 时代,云计算的“竞争门槛”被彻底重塑,市场需求正疯狂向头部高度集中。
为什么市场会如此“偏心”?这背后是因为, AI 工程的复杂度和资金门槛,高到直接将玩家分层。
而阿里云做对了三件事,才构筑了这道 36% 的护城河:
第一,3800亿的“饱和攻击”,解决了算力饥渴。
AI 训练和推理,对算力的消耗是吞噬性的。现在客户要的不是“几台服务器”,而是“千卡、万卡集群”。
回顾过去十年,阿里累计投入约 1300 亿元建设基础设施。但2025年年初,阿里巴巴CEO吴泳铭直接宣布:未来三年将投入 3800 亿元建设 AI 基础设施。但在2025年11月的业绩电话会上,有高层甚至暗示这个数字“可能偏保守”。
这意味着,阿里现在一年的基建投入,可能超过过去十年的总和。
这种近乎疯狂的投入,直接拉开了与追赶者的身位。当客户需要万卡集群时,阿里云是极少数能拿出“现货”且保证“跑得通”的厂商。相比之下,友商受制于供应链桎梏或相对温和的投入策略,在供给侧的厚度上难以比拟。
第二,“全栈优化”带来的成本决胜。
阿里云是全球为数不多实现“芯片(平头哥)+ 平台(阿里云)+ 模型(通义实验室)”全栈自研的厂商。圈里人管它叫:通云哥。
这不仅是技术秀,更是商业账,通过底层 CIPU 对网络延迟的优化,通过 PAI 对显存的调度,阿里云能把 GPU 的利用率榨干到极致。
简单说,同样的模型,在阿里云上跑,可能比在友商那里跑,综合成本低 10%-30%。这对于一个月烧几千万算力的 AI 公司来说,这 10%-30%的成本差异,就是生死线。
第三,开源生态带来的“入口优势”。
如果说技术是硬实力,那么千问的开源策略,则是阿里云打出的一张最漂亮的“阳谋”牌。
数据显示,截至目前,千问全系模型的累计下载量已突破10亿次。这个数字背后,是庞大的开发者群体和企业用户。
开源看似免费,实则在为云业务“造血”。
当数百万开发者习惯了使用Qwen系列模型,当海量的中小企业基于Qwen构建自己的应用,他们会发现,在阿里云上部署和运行Qwen是体验最丝滑、性能最优的选择。
Qwen的10亿下载量,本质上是为阿里云筛选并沉淀了全球最活跃的AI潜在客户。通过开源模型,阿里云通过魔搭社区构建了一个类似于“App Store”的生态闭环,开发者在社区找模型,在阿里云上做微调和推理。
这形成了一个正向飞轮:模型越强,下载越多;生态越繁荣,云上的AI算力消耗就越大。
03
大洋彼岸的镜像验证
当然,这种“头部虹吸效应”绝非中国市场的孤例。在大洋彼岸,谷歌云正在上演同一套剧本。
2025年第四季度,谷歌云收入同比激增48%至176.64亿美元,全年营收首次突破700亿美元,未履行订单金额高达2400亿美元,同比增长超过一倍。管理层明确表示:增长“主要由企业AI基础设施及AI解决方案需求激增驱动”。
三年前,谷歌云还是全球云市场公认的“失意者”,份额长期徘徊在10%,被外界视为AWS和Azure身后永远无法追上的第三名。但短短两年,它完成了从“追赶者”到“领跑者”的跃迁。
这套跃迁背后的剧本,与阿里云如出一辙。
第一,算力卡位。谷歌是全球为数不多实现“芯片—系统—模型—平台”全栈自研的云厂商。它的TPU正从内部芯片变成对外输出的差异化武器,据媒体报道,Anthropic计划采购近一百万颗,meta也正就采购进行深度谈判。当对手还在向英伟达等货,谷歌已能向客户“现货供应”万卡集群。
第二,成本碾压。全栈自研的直接红利,是单位算力的有效产出更高。TPU针对Transformer架构的深度优化,让大模型训练的综合成本远低于通用GPU方案。对于月烧数千万算力的AI公司,这是真金白银的生死线。
第三,生态锁客。Gemini月活用户突破7.5亿,超过70%的现有云客户正在使用谷歌的AI服务。这不是增值功能,而是客户留在谷歌云上的锚。当企业的数据资产、模型调优、推理链路都长在谷歌的AI基础设施上,迁移成本已高到难以承受。
这不是巧合。这是产业规律在两个市场的同时验证——
阿里云从33%到36%,谷歌云从10%到14%并在继续加速,两条曲线,讲述着同一个故事:AI时代,算力、模型就是新的“马太效应”开关。谁在这两个维度建立领先,谁就能启动虹吸效应的正循环。
未来三年,中国云市场的悬念或许不再是谁是第一,而是第二梯队的牌还能跟多久。
注:周瑜为化名。





京公网安备 11011402013531号