
![]()
英伟达怒花 200 亿美元,买下了一家和自个路线完全相反的公司?
事情是这样的,上周,领投 Groq 的 Disruptive CEO 放出了消息,老黄准备吞掉自己的潜在竞争对手,同为芯片制造商的 Groq。
而这个英伟达史上最大收购案,立刻在科技圈掀起了不小的波澜。
![]()
大伙儿有说英伟达加强垄断的,有分析 Groq 技术优势的,不过讨论最多的,还是老黄真被前一阵子谷歌的 TPU 给刺激到了。。。
虽然说起 Groq,各位差友应该都比较陌生。如果你觉得听说过,那大概率是跟马斯克家的 grok 搞混了。
但这家 2016 年创立的公司,来头可不小。它今年的估值已经达到了 70 亿美元以上,创始人正是谷歌第一代 TPU 的设计师 Jonathan Ross。
![]()
Groq 的核心产品也很有意思,是一种叫 LPU( Language Processing Unit,语言处理单元 )的新型专用芯片,和 谷歌搞 AI 计算的专用芯片 TPU 放一块儿,确实有点宛宛类卿那意思。
LPU 同样抛弃了 GPU 的通用性,专门为加速 AI 计算而生。
![]()
从名字上也看得出来,它甚至还要更专精一点,纯纯是针对语言模型设计的。
![]()
然而,它又是个大大的异类。因为 LPU 没有 HBM,也就是没有大伙儿常说的显存。
一般来讲,模型训练和推理,怎么也得来一个显存。比如咱们要玩个啥模型,看见说明书里写着,最低配置 3090,潜台词就是显存没到 24G,模型跑不起来。
![]()
毕竟大模型每计算一步,都得从存储容器里把参数取到计算核心,算完了再放回去。而显存是模型参数最理想的集散中心,它离计算核心近,容量较大,参数来来回回搬运非常快。
要是没有显存,参数存到硬盘里,咱就等吧,模型立刻开爬,算一个字儿都得憋半天。
即使是 TPU,后来为了兼备模型训练,也乖乖添加了显存模块。
![]()
但 Jonathan Ross 不忘初心,LPU 承接第一代 TPU 的概念,只搞模型推理,完全不加显存。
可没有显存,模型的参数能存放在哪呢?
LPU 盯上了一个离计算核心更近的存储单元 —— SRAM。问题是,受到晶体管的物理体积限制,它的存储容量极小,每张卡只有几十到几百 MB,根本装不下模型所有参数。
所以,Groq 直接暴力组装千卡万卡集群,每张卡上只存模型的一小部分,也只算这一小部分,最后合体输出。

通过这种方式,LPU 的数据存取速度能达到 GPU 的 20 倍以上,模型推理快到飞起。
靠着奇特但有效的技术路线,Groq 迅速圈了一波粉。在他们摆在首页中央的一张统计图上,模型推理业务已经压了亚马逊一头,仅次于微软了。
![]()
其实早在一年前,就有不少人觉得 Groq LPU 要对英伟达 GPU 来个大冲击,把 LPU 和 GPU 拎出来反复摩擦做比较。
毕竟在当时英伟达 GPU 一家独大的时候,Groq 能比行业龙头推理速度再快 10 倍,简直像天神下凡。
![]()
当然,有人看好,就有人看衰。
像是前阿里副总裁贾扬清就做过一个粗略的测算,用 LPU 运营三年,它的采购成本是英伟达 H100 的 38 倍,运营成本则达到 10 倍,意思是 LPU 想替代 GPU,还差得远呢。
![]()
现在好嘛,不用比了。英伟达:我全都要。
但英伟达的 “ 收购 ”,可不是抛出 200 亿美元,Groq 就归我了。作为一个已经不可能闷声发大财的巨头,垄断变成了悬在英伟达脖子上的一把大刀。
他们用了一种这几年在硅谷屡见不鲜的剥壳式收购,把 Groq 直接挖空了。
像是微软合并 Inflection AI,亚马逊高走 Adept 等等,都是把技术挖走了,核心人才挖没了,留下个空壳公司,普通员工一点汤也喝不着。
![]()
因此,剥壳式收购当属最招骂的一种,没有之一。
所以明面上,英伟达并没有承认收购 Groq,而是和他们签署了一份非独家许可协议,授权 NVIDIA 使用 Groq 的推理技术。
![]()
意思就是,这技术你也能用,我也能用,卖艺不卖身嗷。
实际呢,Groq 的核心技术给英伟达了,Groq 的首席执行官 Jonathan Ross、总裁 Sunny Madra、以及几位专注于超高效 AI 推理芯片的核心工程师,也都被英伟达以雇佣的形式搞到手了。
但说到底,英伟达这次宁可背着骂名,冒着垄断调查的风险,也要把 Groq 打包带走,其实预示了 AI 行业的一个大趋势:大炼模型的时代还在延续,但模型推理部署的长尾效应,让模型推理的需求会逐渐超过模型训练。
![]()
彭博社今年四月发表的一篇报道就表示,目前,训练成本占大型云计算公司数据中心支出的 60% 之多,但分析师预计,到 2032 年,这一比例将降至 20% 左右。
以前大伙儿不计成本买 H100 是为了把模型训出来,但现在,像 Groq 这样主打又快又省的推理芯片,可能才是大厂们以后争抢的核心。
可以说,英伟达通过这次曲线收购,补齐了自己在非 HBM 架构上的最后一块短板。
这不仅是老黄对谷歌 TPU 路线的一次迟到致敬,也是在表明,无论是模型的训练,还是模型的推理,所有的算力税,大胃袋的英伟达,还是一分都不想放过。
撰文:莫莫莫甜甜
编辑:江江 & 面线
美编:萱萱
图片、资料
Groq 官网、NVIDIA 官网
CNBC、DEV、Techspot、Bloomberg、X、Reddit、Github
![]()





京公网安备 11011402013531号