本文作者:李笑寅
硬AI
8月19日至20日,高盛分析师团队于完成第二届硅谷AI实地调研,访问了Glean、Hebbia、Tera AI等领先AI公司,以及Lightspeed Ventures、Kleiner Perkins、Andreessen Horowitz等顶级风投机构,并与斯坦福大学和加州大学伯克利分校教授进行深入交流。
调研显示,随着开源与闭源基础模型在性能上迅速趋同,纯粹的模型能力已不再是决定性的护城河。竞争的焦点正从基础设施层全面转向应用层,真正的壁垒在于能否将AI深度整合进特定工作流、利用专有数据进行强化学习,并建立稳固的用户生态。
报告还援引Andreessen Horowitz等顶级风投的观点称,开源基础模型自2024年中期已在性能上追平闭源模型,达到GPT-4水平,而顶尖的闭源模型在基准测试上几乎没有突破性进展。
同时,以OpenAI o3、Gemini 2.5 Pro为代表的推理模型正成为生成式AI新前沿,其单次查询生成的输出token可达传统模型的20倍,从而推动GPU需求激增20倍,并支撑着AI基础设施资本支出在可预见的未来继续保持高位。
基础模型性能趋同,竞争焦点转向应用层
高盛的调研明确指出,AI领域的“军备竞赛”已不再仅仅围绕基础模型展开。
多位风险投资人表示,基础模型的性能正日益商品化,竞争优势正向上游转移,集中在数据资产、工作流整合和特定领域的微调能力上。
Andreessen Horowitz的合伙人Guido Appenzeller在交流中提到,开源大模型与闭源模型在性能上的差距在不到十二个月的时间内就被抹平,反映了开源社区惊人的发展速度。与此同时,顶尖闭源模型的性能自GPT-4发布后几乎停滞不前。
在这一背景下,AI原生应用如何建立护城河成为关键。
AI初创公司Hebbia认为,应用真正的壁垒并非技术本身——顶尖的工程团队可以在6到8个月内复制任何技术——而在于用户习惯的培养和分销渠道的建立。其逻辑类似于Excel的成功:通过深度嵌入工作流程和培养“超级用户”,形成难以替代的网络效应。
Everlaw等公司也强调,通过将AI深度集成到法律案件的文档处理流程中,为用户提供了一体化的便利和效率,这是独立AI模型无法比拟的。
值得注意的是,前沿AI实验室自身也意识到了这一转变。报告称,OpenAI、Anthropic和Google DeepMind等机构正越来越多地涉足应用层,利用其对模型内部结构和发展路线图的洞察力,来构建更紧密的产品反馈和强化学习循环,这给独立的初创公司带来了新的竞争压力。
推理模型成新前沿,引爆GPU需求
报告数据显示,在过去三年里,运行一个达到恒定MMLU基准分数的模型成本从每百万token 60美元降至0.006美元,降幅高达1000倍——尽管大模型的单位运行成本正在急剧下降。但这并不意味着整体算力支出会减少。
多位VC指出,新的需求增长点正迅速涌现。调研发现,继DeepSeek R-1突破之后,出现了以OpenAI o3、Gemini 2.5 Pro和Claude 4 Opus为代表的新一代推理模型,这标志着基础模型的根本性转变。
传统大模型主要是复述记忆的答案,而推理模型则通过推导、验证和迭代来模拟思维过程。这导致后者的输出文本长度可达1万个token,而传统LLM通常在500个token左右。而输出token量20倍的增长,直接转化为了对GPU推理算力20倍的需求。
高盛指出,这种转变使得推理成本变得高昂,但也让AI能更准确地应用于代码合成、法律、金融和工程等需要严谨分析的复杂领域。因此,VC们普遍认为,当前高昂的AI基础设施资本支出是“适当且必要的”,它不是利润的威胁,而是获取竞争优势的先决条件,尤其对于头部AI实验室而言。
AI原生应用护城河:工作流、数据与人才
随着模型本身不再是稀缺资源,成功的AI应用公司正在通过其它方式构筑壁垒。高盛的调研总结了以下几大关键特征:
一是工作流整合与用户生态。成功的应用公司能快速为企业创造价值,将部署时间从数月缩短至几周。
例如,客户服务AI公司Decagon能帮助客户在6周内上线自动化客服系统,每投入100万美元即可节省300至500万美元成本。这种与现有业务流程的无缝对接是关键。
二是专有数据与强化学习。报告指出,静态的“围墙花园”式专有数据集在法律和金融等垂直领域价值巨大。
但比静态数据更有价值的是动态的用户生成数据,它可以为强化学习循环提供动力。能够尽早获得规模化用户的公司,可以利用高质量的用户反馈信号来持续优化模型,从而形成滚雪球式的领先优势。
三是专业人才的战略价值。与上一代SaaS浪潮不同,生成式AI应用的成功高度依赖于顶尖工程人才。构建高效的AI系统需要模型封装、智能体推理和强化学习回路设计等专业技能。
VC认为,能够构建自我完善系统的AI人才极度稀缺,已成为可持续创新的主要瓶颈。