当前位置: 首页 » 资讯 » 新科技 » 正文

亚马逊部署Cerebras芯片,看重其“极速推理解决方案”

IP属地 中国·北京 华尔街见闻官方 时间:2026-03-14 12:13:32

亚马逊云服务与芯片初创公司Cerebras宣布达成多年合作协议,将在其数据中心部署Cerebras芯片,用于AI推理计算。

3月13日周五,根据双方公布的协议,亚马逊云服务将把Cerebras芯片与自研Trainium芯片组合部署,以提供更高速的推理计算服务。

这也是继今年1月OpenAI与Cerebras签署逾百亿美元合作协议之后,这家初创公司再度获得大型科技巨头背书。

Cerebras将其芯片标榜为“极速推理解决方案”,并表示它们可以处理被称为“解码”的复杂任务,即推理计算阶段,人工智能模型在此阶段对用户查询做出响应,速度比英伟达的GPU快25倍。

此次合作对Cerebras的商业版图具有重要意义。Cerebras首席执行官Andrew Feldman表示:

越来越多的人使用人工智能,使用频率也越来越高,并且用它来解决更复杂的问题。这使得Cerebras-Trainium解决方案能够接入最大的云平台,让我们有机会接触到大量的客户。

推理市场崛起,GPU主导地位受压

AI行业算力需求的重心正悄然转移。

随着AI工具和智能体的用户规模迅速扩张,训练阶段的算力需求趋于饱和,推理计算的重要性日益凸显。企业普遍认识到,GPU虽在模型训练中表现出色,但在要求极致响应速度的推理工作负载上并非最优选择,这促使各方加快多元化供应商布局。

AWS作为全球最大的云服务提供商,此前主要依赖旗下Annapurna Labs半导体业务设计的Trainium芯片为数据中心提供算力支持。

此次引入Cerebras芯片,意在弥补Trainium在高速推理场景下的局限,并在推理产品线上提供分层定价方案,速度较慢的纯Trainium服务将以更低价格提供,而Cerebras与Trainium的组合方案则定位高端。

AWS联合创始人、副总裁Nafea Bshara表示,该公司的目标是"持续推进速度提升并降低价格"。Feldman则直言:

如果你希望获得快速token输出,如果速度对你至关重要,如果你在从事代码或智能体工作,我们不仅是绝对最快的,而且我们意在设定行业标准。

英伟达压力加剧,定制芯片势力扩张

这笔交易是英伟达面临日益激烈竞争的缩影。

定制处理器设计商正以专项场景突破的方式蚕食英伟达的市场份额,客户对更快速度和更低成本的诉求也在倒逼芯片巨头加速产品迭代。

据报道,英伟达去年12月与芯片初创公司Groq签署了一项价值200亿美元的授权协议,并计划于近期发布采用Groq技术、专门面向推理场景的新型处理系统。

对于Cerebras而言,与AWS的合作发生在其业务高速扩张的关键节点。

今年2月,Cerebras宣布完成10亿美元新一轮融资,累计融资总额升至26亿美元,投后估值约为230亿美元。

今年1月,ChatGPT开发商OpenAI签署了一项价值逾百亿美元的协议,部署Cerebras芯片为其旗舰聊天机器人提供算力支持,OpenAI计划使用Cerebras芯片部署最高750兆瓦的算力。

这家初创公司背后汇聚了富达管理(Fidelity Management)、Atreides Management、Benchmark、Tiger Global和Coatue等一线机构投资者的支持,但此前曾一度面临融资困难。

Cerebras曾于2024年9月提交IPO申请,但约一年后撤回了上市文件。上市计划何时重启,目前尚无定论。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。