当前位置: 首页 » 资讯 » 新科技 » 正文

a16z领投Relace,为AI智能体打造专属开发基础设施

IP属地 中国·北京 DeepTech深科技 时间:2025-10-26 00:07:55

AI 编程早已成为许多开发者日常生产中的一环,而随着代码生成的速度和规模达到一定程度,一个日益重要的问题是,支撑这些 AI 运转的开发工具和基础设施正在成为新的瓶颈。不久前,旧金山 AI 编码基础设施初创公司 Relace 宣布完成 2,300 万美元 A 轮融资,由硅谷顶级风投机构 Andreessen Horowitz(简称 a16z)领投,Matrix Partners 和 Y Combinator 跟投。这家只有 8 个人的公司,所瞄准的正是这一问题。

硅谷向来不缺名校辍学创业的故事,Relace 的两位联合创始人 Preston Zhou 和 Eitan Borgnia 也是其中一例。二人本科都毕业于加州理工学院,Zhou 博士就读哈佛大学物理学专业,曾在哈佛 Mitrano Lab 从事超快量子物质动力学研究;Borgnia 则在马里兰大学 College Park 跟随机器学习领域知名学者 Tom Goldstein 做研究,随后进入芝加哥大学攻读机器学习博士,师从 Ben Zhao。

三年前,两人做了一个大胆的决定:从各自的博士项目退学,投身创业。这个决定并不容易,纯学术出身的他们不得不“从零开始学习如何做一家初创公司”,经历了 6 次以上的业务转型,直到 2023 年,二人通过 Y Combinator 孵化器正式创立了 Relace,当时团队规模还不到五人。

短短两年间,他们已经服务了超过 40 家客户,其中不乏 Lovable、Figma、Magic Patterns 这样的明星 AI 应用公司。

在两位创始人看来,软件开发正在经历一场根本性的转变。过去几十年里,代码都是由工程师一行一行敲出来的,版本控制系统、代码仓库、开发环境,所有这些工具都是为人类设计的。


图丨 Preston Zhou(左)和 Eitan Borgnia(右)(Relace)

但今天的情况截然不同——越来越多的代码由 AI 智能体(AI agents)自动生成,这些智能体需要的不是精美的图形界面,而是能够高频读写、快速合并、智能检索的底层基础设施。现有的许多开发工具,虽然功能强大,但它们的设计逻辑依然围绕着人类开发者的工作流程:丰富的 UI 界面、企业组织最多 10 万个代码仓库的限制、每小时不超过 1.5 万次的克隆/推送/拉取请求。这些对人类来说绰绰有余的配置,放在需要并发运行数十个 AI 智能体的场景下,立刻就有些捉襟见肘了。这正是 Relace 看到的市场机会。

在 Zhou 的描述中,公司的使命是构建“软件按需生成”(software on demand)的底层能力——用小型化、专用化的 AI 模型,配合针对性优化的基础设施,让 AI 编程智能体不仅能生成代码,还能直接将其整合到生产环境中运行。换句话说,Relace 想做的是让 AI 智能体也能享受人类开发者已经习以为常的那种顺滑体验:写完代码,提交、合并、部署,一气呵成,无需人工干预。

Relace 的核心产品围绕三种专用模型展开。首先是 Apply 模型,它的作用是将 AI 智能体生成的代码编辑无缝合并回主代码库,而不需要重写周围的代码块——这是当前通用大语言模型经常遇到的难题。按照 Zhou 透露的数据,Relace 的 Apply 模型合并速度超过每秒 1 万个 tokens,这个数字至少比使用 GPT-4o mini 快 50 倍。对用户而言,体感上几乎是瞬间完成,一次语义层面的代码合并可以在 700 毫秒内搞定。

其次是 Embedding 模型和 Reranking 模型,两者配合使用形成了双阶段检索机制。Embedding 模型负责从庞大的代码库中快速定位出可能相关的文件或代码片段,Reranking 模型则进一步筛选和排序,确保呈现给 AI 智能体的是最相关、最准确的上下文信息。据 Relace 公开的测试结果,这套组合能在 1 到 2 秒内完成上下文检索,而且在他们的实验中,这一步骤往往占据了整个 AI 智能体执行链路超过 50% 的 token 消耗。换言之,如果这个环节优化得当,不仅速度快,成本也能大幅降低。

成本问题确实已经成为了整个 AI 编程行业的痛点。近两年 AI 编程工具的快速普及暴露出一个尴尬的现实:很多公司虽然产品受欢迎,但毛利率却惨不忍睹。推理模型让代码生成 Agent 的能力大幅提升,但也带来了更高的推理成本,正在挤压利润空间。AI 编程助手 Replit 在 2025 年的毛利率一度陷入负 14% 到负 36% 的区间,罪魁祸首就是高昂的模型调用成本。而 Relace 主打的策略就是“小型专用模型+优化基础设施”,针对特定任务训练小得多的模型,再通过基础设施层面的协同优化提升整体效率,而非完全依赖最昂贵的通用大模型。

除了这三大模型,Relace 还在构建完整的开发生命周期基础设施,涵盖版本控制、部署、代码库状态管理等环节。伴随这次融资一同推出的 Relace Repos,就是他们在这个方向上的第一个重量级产品。Repos 本质上是一个专为 AI 智能体设计的源代码控制系统,完全兼容 git 协议,但在架构上做了大量针对性改造:支持极高频次的 git 操作、允许组织创建远超传统限制的仓库数量、为每个短生命周期的沙盒容器分配细粒度的访问权限。Repos 深度也集成了 Relace 自家的 Embedding 和 Reranking 模型,让代码检索和上下文加载变成开箱即用的原生能力。


图丨 Repos 的检索速度与召回率(Relace)

在 Zhou 看来,Relace 的长期愿景不仅仅是提供几个好用的模型,而是成为任何公司搭建自己 AI 编程智能体的“一站式平台”(one-stop shop)。未来几个月,他们还将发布一套 Relace 代理,针对端到端任务进行训练,例如快速遍历代码库、自动合并冲突以及智能重构代码库。

a16z 对 Relace 的投资,某种程度上也反映了其对 AI 编码赛道的最新判断。在宣布领投的博文中,a16z 的合伙人 Yoko Li、Guido Appenzeller 和 Martin Casado 明确指出:过去几十年里,代码是由人类手工打造的产物,但今天代码本身正在成为生成式 AI 的基础。每一个新功能、每一次自动化、每一个由提示词触发的操作,背后都是代码在生成和执行。当这个转变发生时,瓶颈就不再是“怎么写代码”,而是“怎么把代码跑起来”。他们认为,未来真正的突破点不在于打造更大的基础模型,而在于用更小、更专的模型配合专门优化的基础设施——这正是 Relace 在做的事。

过去一年多时间里,“提示词生成应用”(prompt-to-app)平台如雨后春笋般涌现,增长速度惊人;与此同时,传统 SaaS 厂商也开始将编码 Agent 直接嵌入自己的产品中。这两股力量汇聚的结果是:大量代码正在由 AI 自动生成,而且这个趋势还在加速。

但问题在于,现阶段几乎每一家想做 AI 编码的公司,都在各自重复造轮子——搭建自己的工具链、自己的沙盒环境、自己的源代码管理系统。就像 Zhou 和 Borgnia 所说的,这些本该成为“商品化服务”的基础组件,如今却还在被当作竞争优势来打造,这显然不够高效。类比 Web 开发的演进历程,今天已经没有公司会把数据库、部署流程或身份认证视为自己的核心壁垒,它们早就外包给了专业服务商。Relace 的赌注是 AI 编码领域也会走上同样的道路,而他们想成为那个提供标准化基础设施的玩家。

参考资料:

1.https://www.relace.ai/blog/series-a-announcement

2.https://www.relace.ai/blog/relace-repos

3.https://a16z.com/announcement/investing-in-relace/

4.https://www.theinformation.com/articles/andreessen-backs-startup-developing-tools-coding-agents-use?rc=qlolsu

排版:刘雅坤

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。