IT之家 3 月 17 日消息,今天(3 月 17 日)在美国加州圣何塞举行的 2026 年 GTC 大会上,英伟达针对智能体 AI(Agentic AI)的长上下文推理,发布 BlueField-4 STX 模块化存储参考架构。
IT之家援引博文介绍,传统数据中心提供大容量通用存储,但缺乏快速响应能力,无法支持 AI 智能体跨步骤、跨工具的无缝交互。随着上下文信息的增加,传统存储路径会严重拖慢 AI 推理速度,并导致 GPU 利用率大幅降低。
STX 架构为解决这一痛点,让存储节点更靠近计算资源并实现规模化访问,促使智能体 AI 工厂在推理、训练和分析环节实现更高的吞吐量与响应速度。
其首个机架级部署方案集成了全新的 NVIDIA CMX 上下文内存存储平台。该平台通过高性能上下文层扩展了 GPU 内存,与传统通用存储设备相比,其每秒处理的 Token 数量提升了高达 5 倍。
![]()
STX 架构基于英伟达 Vera Rubin 平台打造,其核心搭载了专为存储优化的 BlueField-4 处理器(内部集成 Vera CPU 与 ConnectX-9 超级网卡),并协同 Spectrum-X 以太网、DOCA 及 AI Enterprise 软件运行。
在实际性能表现上,该架构的能效比传统 CPU 架构高出 4 倍,并且在处理企业级 AI 数据时,数据摄取速度(每秒页面处理量)直接翻倍。
英伟达创始人兼 CEO 黄仁勋强调,为重塑计算基础设施以匹配智能体 AI 的进化速度,AI 系统需要全新的存储形态,来处理海量上下文并具备持续学习能力。
戴尔、HPE、IBM 等众多顶级存储供应商目前正基于 STX 联合设计下一代 AI 基础设施。此外,甲骨文云(OCI)、Mistral AI 等领先云服务商计划率先采用该技术,相关合作伙伴将于今年下半年正式向市场交付基于 STX 平台的系统。





京公网安备 11011402013531号