智通财经APP获悉,当英伟达(NVDA.US)在8月27日公布第二季度财报时,投资者的关注焦点将牢牢锁定在该公司的数据中心业务上。毕竟,这正是这家芯片巨头凭借销售高性能AI处理器实现营收的核心板块。
但数据中心板块不仅仅包括芯片销售,它还涵盖了英伟达一些至关重要、却常被忽视的业务——网络技术。由NVlink、InfiniBand和以太网解决方案组成的英伟达网络产品,是让其芯片相互通信、让服务器在庞大的数据中心内部互联互通,并最终确保终端用户能够连接并运行AI应用的关键。
英伟达网络业务高级副总裁Gilad Shainer解释道:“构建超级计算机最重要的部分是基础设施,而最重要的部分就是如何将这些计算引擎连接起来,从而形成一个更大的计算单元。”
这也意味着可观的销售额。在上一财年,英伟达的网络业务在数据中心板块1151亿美元的收入中占据129亿美元。虽然与芯片销售带来的1021亿美元相比似乎不那么显眼,但这一数字已超过英伟达第二大业务——游戏板块——当年实现的113亿美元收入。
在第一季度,网络业务为英伟达的数据中心业务(营收391亿美元)贡献了49亿美元营收。随着客户持续扩展AI算力——无论是在科研机构还是超大规模数据中心——这一业务还将继续增长。
Deepwater Asset Management管理合伙人Gene Munster表示:“这是英伟达业务中最被低估的部分,低估的程度是数量级的。”“网络业务之所以没得到关注,是因为它只占营收的11%。但它的增长速度像火箭一样快。”
连接成千上万颗芯片
在AI爆发的背景下,英伟达网络业务高级副总裁Kevin Deierling表示,公司需要在三种不同类型的网络上发力。第一是NVlink技术,它将GPU彼此连接在一台服务器内,或者在机柜状的服务器机架中连接多台服务器,使其能够互相通信并提升整体性能。其次是InfiniBand,它连接数据中心中多个服务器节点,从而组成一个庞大的AI计算机。最后是用于存储和系统管理的前端网络,这部分采用以太网连接。
Kevin Deierling解释道:“构建一个巨型AI级别、甚至中大型企业级AI计算机,都需要这三种网络。”
这些连接的目的不仅仅是让芯片和服务器能够通信,更重要的是让它们以最快的速度通信。如果你希望让一组服务器像一个单一计算单元那样运作,它们之间必须做到毫秒级甚至微秒级响应。如果GPU接收的数据不足,整个运算过程就会变慢,从而延迟其他流程,影响整个数据中心的效率。
Gene Munster表示:“如果没有网络业务,英伟达会是一个完全不同的公司。”“那些购买英伟达芯片的客户所期望的计算能力,如果没有这些网络技术,是不可能实现的。”
推理需求增强
随着企业持续开发更大型的AI模型,以及能够为用户执行任务的自主和半自主代理型AI功能,确保GPU之间步调一致变得越来越重要。尤其是在推理环节,对数据中心系统的性能要求正不断提高。
AI行业正围绕“推理”概念进行广泛重构。在AI浪潮初期,人们普遍认为,训练AI模型需要极其强大的AI计算机,而实际运行它们的算力需求会低得多。这种观点在今年早些时候引发了华尔街的担忧。今年早些时候DeepSeek推出的AI模型让人们担忧,如果企业能够用低性能芯片完成AI模型的训练和运行,那么昂贵的高性能英伟达系统就没有必要了。
然而,这一叙事很快反转。芯片公司指出,这些AI模型在强大的AI计算机上运行时,能够比在低性能系统上处理更多信息、推理速度更快。Kevin Deierling表示:“我认为依然存在一种误解,认为推理是简单、轻松的。”“事实证明,随着我们进入代理型工作流阶段,推理开始越来越像训练。因此,这些网络都非常重要。让它们与CPU、GPU和DPU(数据处理单元)紧密耦合,对提供良好的推理体验至关重要。”
竞争对手逼近
与此同时,英伟达的竞争对手也在蠢蠢欲动。AMD(AMD.US)正在努力争夺更多市场份额,而亚马逊(AMZN.US)、谷歌(GOOGL.US)和微软(MSFT.US)等云计算巨头则持续研发自己的AI芯片。行业组织也在推出自己的竞争性网络技术,包括UAlink。据Forrester分析师Alvin Nguyen介绍,这项技术旨在与NVlink直接竞争。
但目前,英伟达依然保持领先。随着科技巨头、科研机构和企业继续争夺英伟达的芯片,这家公司的网络业务几乎注定会同步增长。