当前位置: 首页 » 资讯 » 新科技 » 正文

阿里为什么要押注Coding AI

IP属地 中国·北京 编辑:苏婉清 雷峰网 时间:2025-07-24 20:16:06



开源不是终点,而是云的起点。

作者丨郑佳美

编辑丨陈彩娴

7 月 23 日凌晨,阿里云一次看似平淡的模型开源操作,却迅速引爆了市场情绪。

这次发布的模型名为Qwen3-Coder,由阿里通义实验室推出,是一款全新的开源代码大模型。一经上线,便迅速在 Hugging Face 与 GitHub 上收获数千颗星标,模型权重文件更在数小时内被下载超万次。

据官方披露,Qwen3-Coder 在代码能力上全面对标甚至超越 GPT-4.1 与谷歌代码模型,其性能水平已达到全球顶尖梯队。相比目前在开发者群体中应用广泛的 Claude 4 模型,Qwen3-Coder 不仅实现技术上的可比,且在开放性与性价比上更具优势。

以 20 万 Tokens 为例,Claude 4 的输入输出成本分别约为 22 元/百万 Tokens 和 108 元/百万 Tokens,而 Qwen3-Coder 则分别为 10 元/百万 Tokens 和 40 元/百万 Tokens,价格大致是前者的一半和三分之一,大幅降低了代码智能体的使用门槛。更重要的是,Qwen3-Coder 不仅支持免费下载,还允许免费商用,在实际应用中展现出了更高的性价比。

除此之外,资本市场给出的回应也很直接。模型发布后,阿里股价应声上涨,叠加此前两周 AI 概念的持续催化,公司股价累计涨幅已超 20%,成为这轮 AI 热潮中最具代表性的“概念股”之一。

而 Qwen3-Coder 作为模型性能、产品能力和资本情绪的交汇点,与其说它是一次模型的迭代,不如说是阿里在 Coding AI 领域长期布局与持续投入的阶段性体现。

01

阿里云为什么要「卷」代码?

当 AI 行业的话题中心从“语言能力”转向“任务执行”,代码模型成了最容易被忽视却最重要的基础设施。眼下,从 OpenAI 到 Anthropic 都在发力 Agent,而阿里却把更多精力放在了代码模型这一块“最不性感”的技术上,看起来不够热闹,实则押对了难点。

Agent 的落地门槛不在语言理解,而在代码执行。一个 Agent 是否真的能完成复杂任务,最关键的不是它能说多花哨的话,而是它是否真的能调起工具、连通系统、处理异常并稳稳地完成任务流程。

而要支撑这些,代码能力必须强、稳、准。大模型如果在代码生成上还停留在跑通示例的阶段,那它离真实环境中的高复杂度、多接口、多语义的业务流程还远得很。而 Qwen-Coder 系列的演进路径,几乎就是为了解决这些问题而来的:结构理解更好、代码调试能力更强、跨语言适配更自然,都是去围绕真实落地的需求所做的优化。

说白了,阿里云没有试图造一个“最聪明的 Agent”,而是在造“最靠谱的手脚系统”。

从产品和技术投入来看,阿里过去一段时间在 Coding AI 方向的节奏非常清晰。去年 11 月开源的 Qwen2.5-Coder 系列共包含 6 款模型,在多个主流评测榜单中取得了同尺寸下的领先成绩,主要集中在代码生成精度与泛化能力上。

而在工具层,阿里的通义灵码插件则是已覆盖大量开发者群体,下载量超过 1700 万,累计生成代码超过 30 亿行,除了公司内部全面部署外,也被多家企业接入试用。

事实上,阿里对 Coding AI 的投入并非模型热潮下的临时动作,而是其长期技术战略中的一部分。相比于只讲大模型性能,阿里云的真正战略是围绕 Coding AI 构建“Agent-ready”的基座能力,这是一场从“聪明的大脑”到“靠谱的双手”的技术进化。

现在市场上企业真正需要的不是会说话的 AI,而是能在真实业务系统中完成具体任务的智能体。这就要求模型在代码能力上不只是生成片段,而是能够执行复杂操作、对接多系统,并具备调试和异常处理的稳定性。如此来看,阿里的选择并非造概念、追热点,而是从底层技术中寻找可靠落地的路径。

02

模型开源不是终点,云才是闭环的关键

而阿里云选择开源,看似牺牲了自身的商业利益,但其实是在为自家的“云”业务引流。

此次 Qwen3-Coder 延续了 Qwen 系列一贯的开源策略,支持免费商业使用。这一策略在当前大模型生态中其实早已颇具代表性,但也不免得再次引发关于“开源是否影响商业化”的行业讨论。

但阿里云的答案其实早已非常明确:模型的免费开源并不是对商业价值的让渡,而是流量入口和生态抓手,是换了一种方式去打开入口。通过开源模型快速扩展开发者基础,降低企业试用门槛,再通过云服务来承接部署、微调和运行等后续需求,构建出一条从“用模型”到“用云”的自然路径。


而“模型 + 云”的组合之所以逐渐成为行业共识,很大程度上是出于现实的工程考量。

尽管开源模型在原则上可以被下载后部署在本地,但一旦进入实际应用阶段,涉及到大规模数据处理、稳定的网络带宽、分布式算力调度和长期运维,整体系统的复杂度和技术门槛都会显著提高。对于多数企业来说,独立承担这些成本并不划算,反而将模型运行、部署和优化交给云平台,是更现实、性价比更高的选择。

除此之外,AI 模型本身也在从“应用工具”逐步转变为“基础设施”的一部分。随着大模型在企业内部开始参与各类重复性、标准化流程的执行,模型对底层资源的依赖也在不断加深。模型越智能、接入场景越多,对算力、存储、网络、数据同步等基础资源的需求也越大。这意味着,在越来越多的企业场景中,云服务不再只是模型的附加选项,而成为支持 AI 应用规模化的必要条件。

在这样的背景下,阿里云持续强化“模型开源 — 云服务转化”的机制,目的可能并不在于通过某个模型直接赚钱,而是在开源生态和基础设施之间搭建起一条能跑通的连接通道。

现在很多模型厂商都开开源,真正的分水岭早已不是“开不开源”,而是有没有能力把“开源之后的事情”接住。企业愿不愿意真的把模型用起来,往往取决于能不能顺利部署、调通流程、接上现有系统,这些环节需要的不仅是模型本身,更是一整套工程支撑能力。

阿里在这些方面,做的很好。

而且事实证明,阿里的这条路线确实开始跑出了一些效果。根据 5 月财报显示,阿里云本季度收入同比增长 18%,达到 301.27 亿元,是过去三年来的最高增速,而其中 AI 相关业务更是连续七个季度维持三位数增长。


IDC 的数据也给了一些侧面印证:2024 年,阿里云在中国 AI 基础设施市场的份额达到 23%,排名第一,超过第二和第三名的总和,在大模型训练和推理两个关键场景中,阿里云同样排在前列。从这些数字来看,“模型带动云”的链路,至少在工程和市场层面是跑得动的。

而在 To B 业务场景中,这样的模式更是尤为高效,相比其他只做模型、或者只做云的玩家,阿里云在大模型相关的能力链条上起步更早,也更完整一些:模型怎么托管、怎么调、怎么控权限、怎么过合规检查,基本都有方案,这对企业来说意味着少踩坑、少走弯路。

当然,这条“模型 + 云”的路能不能一直跑下去,还得看它在不同行业里,能不能真的把模型落地、服务跑起来。光有开源和云资源远远不够,最终还是要看实际能解决多少问题。

03

模型之后,是工程能力的竞赛

这次 Qwen3-Coder 的发布不仅让人们看到了阿里在代码大模型上的阶段性成果,更揭示出一个值得关注的行业趋势:大模型的叙事正在从“谁更强”转向“谁更能落地”。随着模型性能差距逐渐收窄,真正拉开差距的,可能不再是参数量和榜单成绩,而是工程能力 —— 谁能在真实世界的系统里跑通、跑稳、跑得起规模。

这背后不仅考验模型的生成能力,更涉及调度、调通、运维、权限、合规等一整套工程体系。而这恰恰是阿里选择“开源模型 + 云闭环”模式的核心逻辑——从技术路径上构建闭环,从生态建设上形成正向飞轮。

对阿里而言,模型开源是加法,云服务是乘法,唯有两者结合,才能形成真正的产业势能。

未来几年,Coding AI 或许不会成为最热的行业关键词,但一定会是最实的基础能力。就像电力和铁路一样,它的“性感”不在概念,而在于基础设施般的稳定与普适。也许正是因为看到了这一点,阿里才会在热闹的 AI 舞台背后,选择继续默默打磨手中的“编程铁锤”。

而属于 Qwen3-Coder 的真正价值,也许才刚刚开始显现。


免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。