大厂正在集火最具 PMF(产品市场契合度)价值的赛道—— AI 编码。
从 7 月 21 日开始,字节、腾讯、阿里轮番更新 AI 编码产品和模型:字节已有的 AI 编码产品 Trae 放出 Solo 版本,加入上下文工程,让平台变得更 " 聪明 ";腾讯则把一整套用来部署产品的工具放到其中,做了个 " 全栈工程师 ";阿里更是发布编程大模型 Qwen3-Coder 剑指 Claude 4,直接从模型层下功夫。
在 Cursor 面向中国市场取消了 Anthropic、OpenAI 和 Google 等多家的模型使用后,国内大厂们不仅想做 Cursor 的平替,更是升级开发体验。它们不再满足于让 AI 仅仅充当程序员的 " 副驾驶 ",而是想让 AI 包揽起 " 产设研 " 一条龙,直接做成品。
和上半年还在让 AI 当助手、打酱油相比,这一次,AI 编码已经实现了从辅助程序员生成代码,到 AI 自主完成生成的飞跃。
AI 编码 " 三国杀 ",从编码生成到软件交付
接连三天的发布中,字节、阿里、腾讯三家大厂先后拿出了能让 AI 一口气干完从编码到成品的工具 / 模型。
这一次的集中更新,AI 开始接管起写编码的工作:不仅要写得质量过关,更是把成品都部署好了。
其中,腾讯和字节对自家编码产品的更新,重点还是在产品侧,毕竟从工程队到样板间,中间还隔着很远,需要靠产品能力补齐。
7 月 21 日,字节宣布更新 Trae Solo 版本,比起聚焦 " 编码生成 " 的 1.0 阶段,新版本跨向了能让 AI 自主完成 " 软件交付 " 的 2.0 阶段。
在旧的版本中,Trae 在 IDE 界面中编程,其中编程模式有两种,分别是 Build 模式和 Chat 模式,前者相当于一个传统编程的 IDE 界面,只需要用户在右侧输入提示词,AI 就能自动拆解,按照需求生成大段编码。相比之下,Chat 模式则更多适用于用户和 AI 通过聊天的方式,修改编码、找问题等等,更适用于精细调整上。
2.0 版本的 Trae,在左上角加入了一个模式切换,可以从旧版本的 IDE 模式切换到 Solo 模式。在界面上,AI 对话框被放到了左侧,而右侧用来放 AI 生成的文档、编码信息。
在整合后的界面中,Chat 模式和 Build 模式相当于有机整合在了一起。在官方演示中,AI 演示的功能先拆解起了需求,生成一份产品文档。紧接着,这个文档就交给 AI 做下一步拆解,根据里面的详细需求,AI 开始接着写起了编码。
在这个基础上,Trae 还要让它完成从部署编码到提供成品的效果,于是,新版本配置了一系列辅助 Web 开发的工具,包括 PRD(产品需求)文档、UI 设计、部署上线等,这些工具全都接在了 Solo 模式中的 AI Builder 里。
可以看到,比起以往只是辅助程序员写编码的 AI 助手,新版本的 Trae 们已经能让零基础编程的开发者用平台开发出一个完整的产品。
整合界面、开发工具的基础上,Trae 还在优化 Agent 功能的 Context(上下文工程)上下手,进一步优化产品功能,克服 " 准确理解需求 " 的问题。
此前,对于 Trae 1.0 版本的评价,程序员们的评论口碑两极分化:一部分人认为确实能提效,另一部分用户则集中反映了 AI 回复质量的问题——编码跑出来了,但长度和可用度都存在一定问题,且来来回 回找不到编码中存在的 Bug,花费的时间变得更多了。
过往使用这些编码助手类产品时,用户往往会遇到一个问题,也就是输入 prompt(提示词)之后,跑出来的编码和需求 " 两模两样 "。比如,虽然给一个生成女装电商网站的需求,但这里面还需要大量细节的敲定,比如女装做哪个年龄段、网站需不需要设置登录界面等等。
上下文工程想解决的就是这样一个问题,当用户再给到一个任务时,它能根据你之前上传的各种需求文档、编码、配置信息等内容抓取和任务需求相关的所有文档,相当于从庞大的资料库里精准筛出来了用户想要的资料。再把这些作为上下文,供 AI 生成的时候参考。在此基础上,AI 才能跑出来更满足需求的内容。
无独有偶,腾讯第二天也更新了自家编码助手产品 CodeBuddy,这次开启了一个首次内测 IDE 模式,强调自己 " 首个 AI 全栈工程师 " 的定位。
腾讯把产品优化的重心放在了让包括产品、设计、研发等不同角色在内的用户,不管看不看得懂编码,都能靠 AI 做个产品出来。
在同样更新 PRD 生成、上线部署等功能的基础上,CodeBuddy IDE 在一些工具部署的细节处下功夫更多,对看不懂编码的开发者也更友好。比如支持把设计师用的 Figma 格式设计稿一键转化成网站、接入后端部署工具 Superbase 等。
当编码之外的一系列开发工具都被合并到 AI 编码平台上,字节和腾讯的编码助手产品面向的群体也在改变,从程序员,到已经能让开发者只描述需求就能生成可用编码,甚至优化到前后端使用。
如果说字节、腾讯的先后更新是在争夺 " 国内版 Cursor" 的地位,那阿里的本次开源则直接剑指编码开发工具运行的基座——模型。
目前,无论是 Cursor、字节 Trae 还是腾讯 Codeuddy,海内外 AI 代码产品都是提供多种模型供用户选择调用。比如 Trae 国际版支持 Claude 3.7 和 GPT-4o 等模型,国内版则支持使用 DeepSeek-V3、DeepSeek-R1 和豆包 1.5Pro 等模型,腾讯的 CodeBuddy 则纳入了 Claude3.7、Claude 4 的 Sonnet 版本、Gemini 系列和 GPT-4o 等。
平台把各种模型集成在选择中,而用户用得最多的,自然也能靠 API 调用赚到更多的钱。
7 月 23 日凌晨,阿里开源了自研模型 Qwen3-Coder,并发布两个闭源模型 Qwen3-Coder-Plus、Qwen3-Coder-Plus-2025-07-22 , 在性能对比上直接拉上了目前海外编码能力最强的模型系列 Claude4。
虽然还是无法和顶配 Opus 性能相比,但和中档模型 Claude 4 Sonnet 对比,阿里的开源模型已经能够比肩,甚至在 Terminal-Bench(评估 AI 模型在终端交互任务中性能)、SWE-Bench(评估大模型解决真实软件工程问题能力)等多个指标测试上超过 Sonnet。在上下文长度方面,Qwen3-Coder 原生支持 256k Token 上下文长度,且能扩展到 1M;相比之下,Claude 4 Sonnet 的上限是 200k。
阿里深谙 " 模型即产品 " 的定位,在提升 AI 编程能力的同时,也把重心放在了 Agent 能力提升上。这样做的好处是让模型也具备拆解任务、规划等能力,从而在模型层也能让 AI 输出产品,比如做个旋转的地球模型、做个 AI 小游戏,不过在完整产品能力的部署上,还得依赖平台的配合和优化。
从性能上,Qwen3-Coder 已经能作为平替使用,从价格来看,阿里也在靠 " 上下文长度区间 " 做定价的区分,试图把价格打下去。其采用阶梯计费模式,最便宜的档次只要 4 元搞定每百万 Token 输入、16 元每百万 Token 输出。即使在可以和 Claude 最长输入长度对标的 128-256k 档次相比,也达到了每百万输入低 50%、每百万输出低 60% 以上的价格。
卷产品、卷模型,随着三家大厂扎堆发布,这场关于 AI 编码的战争,已经代表了一种态度——被看好的 AI 编码赛道验证了自己的价值,进入大厂准备 " 摘果实 " 的阶段。
下半年,海内外决战 AI 编码
和今年还在初级阶段 " 开荒 " 的 Agent 不同,AI 编码的决战,将在今年下半年打响。
今年 3 月,OpenAI 首席产品官 Kevin Weil 的判断掷地有声,他预计到 2025 年底,AI 编码将实现 99% 的自动化。Anthropic CEO Dario Amodei 更是大胆预测,3 到 6 个月内,AI 将编写 90% 的编码;12 个月内,AI 几乎接管所有编码。
结合这几个月的情况来看,这些看似激进的预测,并非空穴来风。比起还在企业内部磨合的各种 Agent,这一批 AI 编码产品已经开始在企业内部率先试用。
Anthropic 公司旗下的 Claude Code 便是其中的佼佼者。据 Anthropic 透露,其内部高达 80% 的编码工作已交由 AI 完成。他们甚至分享了 10 个不同团队使用 Claude Code 的案例,涵盖了从编码生成、调试、重构到测试等多个环节。腾讯这次内测的 CodeBuddy IDE 也在宣传中注明,内部产品、设计、研发的使用率高达 85%。
这些内部大规模应用的案例,共同传递出一个明确的信号——AI 编码已经跨越了 " 试水 " 阶段,开始真正被使用起来,而且是一个明显能赚到钱的赛道。
Anthropic 开发的 AI 编程工具 Claude Code 在短短 4 个月内就吸引了 11.5 万开发者用户,据 Menlo Ventures 风险投资家 Deedy Das 推测,该产品年收入可达 1.3 亿美元。字节的 Trae 则在上线的半年内月活超过 100 万。
一周内,Claude Code 处理了 1.95 亿代码
没有布局的大厂,要么试图自研,要么靠收购加入。OpenAI 试图以 30 亿美元的巨资收购拥有 80 万用户的 AI 编程助手初创公司 Windsurf。尽管后来这笔交易告吹,Windsurf 的首席执行官被谷歌截胡,但这本身就足以说明 AI 编码领域的吸引力,以及巨头们对抢占赛道可能性的渴望。
在可用性得到极大提升的基础上,对比海外,国内这波 AI 编码类软件的用户范围试图将用户范围进一步扩大,不再局限于专业的程序员,而是会进一步扩展到更广泛的用户群体。
然而,非程序员之外的开发者真的会是这批产品的受众吗?
目前还难以确定。对于没有基础的用户来说,如果出现编码报错、不合需求的情况,只靠个人来说,跑一个程序出来容易,但跑个满意的成品显然很难。
开源框架 Ruby on Rails 的创建者 David Heinemeier Hansson 在播客中分享," 编辑和修正编码的能力建立在你是否具备创作能力之上,就像编辑一本书的人通常也要具备写作能力。"
但可以确定的是,AI 编码现在能卷的不仅仅是质量的提升,一系列的工具嵌入正在大幅压缩开发者的时间。
而在 AI 编码这场即将打响的决战中,最大的受益者无疑是模型厂商和云厂商。编码的生成和优化,需要消耗大量的计算资源和模型推理能力,这为背靠自家云设施的大厂们和掌管 API 的模型开发公司带来了赚钱的机会。
编码对 Token 的大幅消耗,是一笔利润丰厚的生意。例如,Anthropic 向投资者透露,Claude Code 目前的年化收入已超过 2 亿美元,或每月贡献超过 1670 万美元的营收。这充分说明了 AI 编码在商业上的巨大潜力。
国内厂商也纷纷入局,抢占市场份额。
阿里的做法是底座、产品两手抓,进一步抢夺话语权。在 " 模型即 Agent" 的今天,阿里发布的自研大模型 Qwen3-Coder 就是证明。一个性能比肩 Claude 4 Sonnet,价格却对半斩的模型,加上考虑到地缘政治的因素,阿里有希望成为国内编码产品选择模型的 " 平替 "。
免费牌,也是腾讯和字节暗戳戳打出来的竞争手段。腾讯本次发布的 CodeBuddy IDE 模式的一个卖点就是支持用户免费使用 Claude 4 模型,字节的 Trae 则早在国际版中就支持了免费用 Claude3.7。
然而,在模型成本依然昂贵的情况下,限量开放使用是常态,因此通过邀请码等方式进行裂变,成为大厂们扩大用户群体的常见策略。
烧钱也要赚吆喝,接下来,谁能真正担起 " 国内 Cursor" 的称号?
光锥智能