当前位置: 首页 » 资讯 » 新科技 » 正文

报道:英伟达在下月GTC大会推出“新推理芯片”,融入Groq LPU设计

IP属地 中国·北京 华尔街见闻官方 时间:2026-02-28 12:22:31

英伟达计划在下个月的GTC开发者大会上发布一款整合了Groq“语言处理单元”(LPU)技术的全新推理芯片,代表着英伟达正加速向推理计算领域转型,以应对客户对高效能、低成本计算方案的迫切需求。

据华尔街日报报道,这款被英伟达首席执行官黄仁勋称为“世界从未见过”的全新系统,专为加速AI模型的查询响应而设计。该产品的推出预计将重塑当前的AI算力市场格局,直接影响正在寻找更具成本效益替代方案的云服务提供商和企业级投资者。

作为市场对该技术初步认可的重要标志,ChatGPT开发商OpenAI已同意成为该新处理器的最大客户之一,并宣布将向英伟达购买大规模的“专用推理产能”。这一举动不仅稳固了英伟达的核心客户盘,也向市场发出了明确信号:支持自主AI智能体的底层基础设施正从大规模预训练转向高效推理。

在面临谷歌、亚马逊以及众多初创公司激烈竞争的背景下,英伟达正在突破传统图形处理器(GPU)的单一依赖。通过引入新的技术架构以及探索纯中央处理器(CPU)的部署模式,该公司试图在AI产业演进的下一阶段继续巩固其市场统治地位。

整合LPU设计,直击大模型推理瓶颈

随着AI行业从模型训练向实际应用部署转移,推理计算成为核心焦点。AI推理主要分为预填充(pre-fill)和解码(decode)两个阶段,其中大型AI模型的解码过程尤其缓慢。针对这一技术瓶颈,英伟达选择通过外部技术整合来突破物理极限。

据华尔街日报报道,英伟达去年底斥资200亿美元获得了初创公司Groq的关键技术许可,并在一场大规模的“核心聘用”交易中吸纳了包括创始人Jonathan Ross在内的高管团队。Groq所设计的“语言处理单元”(LPU)采用了与传统GPU截然不同的架构,在处理推理功能时表现出极高的效率。

业内分析认为,即将发布的新品可能涉及具备颠覆性的下一代Feynman架构。据华尔街见闻此前文章,Feynman架构可能采用更广泛的SRAM集成方案,甚至通过3D堆叠技术将LPU深度整合其中,专门针对延迟和内存带宽这两大推理瓶颈进行优化,从而大幅降低AI智能体运行的能耗与成本。

拓展纯CPU部署,提供多元化计算选择

在引入LPU架构的同时,英伟达也在灵活调整其传统处理器的使用方式。英伟达以往的标准做法是将Vera CPU与其强大的Rubin GPU捆绑在数据中心服务器中,但在处理某些特定的AI智能体工作负载时,这种配置被证明成本过高且能效不足。

部分大型企业客户发现,纯CPU环境在运行特定AI任务时更为高效。顺应这一趋势,英伟达本月宣布扩大与meta Platforms的合作,进行了首次大规模的纯CPU部署,以支持meta的广告定向AI智能体。这一合作被市场视为英伟达战略调整的早期窗口,表明公司正超越单一的GPU销售模式,试图通过多元化的硬件组合来锁定AI市场的不同细分领域。

市场需求换挡,竞争态势持续升级

这种底层硬件设计的演进,直接源于科技行业对AI代理应用需求的爆发。许多构建和运营AI智能体的公司发现,传统的GPU成本过于昂贵,且在实际运行模型时并非最佳选择。

OpenAI的动向凸显了这一趋势。除了承诺采购英伟达的新系统以改进其快速增长的Codex工具外,OpenAI上个月还与初创公司Cerebras达成了一项价值数十亿美元的计算合作。据Cerebras首席执行官Andrew Feldman称,其专注于推理的芯片在速度上超越了英伟达的GPU。此外,OpenAI还签署了使用亚马逊Trainium芯片的重大协议。

不仅是初创公司,主要云服务商也在加紧自研芯片步伐。被广泛视为自动编码市场领导者的Anthropic Claude Code,目前主要依赖亚马逊AWS和Alphabet旗下谷歌云设计的芯片,而非英伟达的产品。面对竞争对手的围剿,黄仁勋在接受wccftech采访时强调,英伟达正从单纯的芯片供应商向涵盖半导体、数据中心、云和应用的完整AI生态系统构建者转型。对于投资者而言,下个月的GTC大会将是检验英伟达能否在推理时代延续其90%市场份额神话的关键节点。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新