当AI从"生成"走向"自主行动",算力的瓶颈可能将从GPU转移到内存。
据韩国《亚洲经济》等当地媒体报道,被业界誉为"HBM之父"的韩国科学技术院(KAIST)教授Joungho Kim近日发出预言:当前由英伟达主导的GPU中心化AI架构,终将被以内存为核心的新架构所取代。
这一判断的背后,是AI应用形态的根本性转变。从生成式AI迈向智能体AI(Agentic AI),系统需要同时处理海量文档、视频及多模态数据——Kim将这一趋势称为"上下文工程"(context engineering)的崛起。他指出,为保障速度与精度,内存带宽和容量必须提升最高1000倍
数字更为惊人的是需求端:据Money Today Broadcasting早前引述Kim的说法,输入规模若扩大100至1000倍,内存需求可能呈指数级跃升,总量膨胀幅度或高达100万倍
HBM将触及天花板,HBF接棒
Kim明确表示,现有HBM技术——通过垂直堆叠DRAM实现超高速传输,目前主导AI加速器内存市场——在智能体AI时代将难以为继。
他提出的下一代解决方案是HBF(High Bandwidth Flash,高带宽闪存):以堆叠NAND替代DRAM,构建一个"巨型书架式"长期记忆体,容量远超现有上限。
类比来看,HBM更像是桌面上的便签纸——速度快但容量有限;HBF则像是一整面书墙,能存放的信息量级完全不同。
在架构层面,SK海力士已在IEEE发表的论文中提出"H3"架构——据《韩国经济》2月报道,该架构将HBM与HBF并排部署于GPU旁侧,而非现有设计中仅有HBM紧邻处理器。这意味着GPU的角色将从"主角"退化为"配角",计算单元被嵌入以内存为主体的系统之中。
时间表已逐渐清晰。
据Kim的预测,HBF工程样品预计将于2027年前后出现,谷歌、英伟达或AMD最早可能在2028年采用该技术。
这一节奏与HBM当年从实验室走向大规模商用的路径高度相似,也意味着产业窗口期已经开启。
SK海力士与三星,再度正面交锋
Kim同时指出,HBF领域的竞争格局将复刻HBM时代的剧本——SK海力士与三星电子再度成为主角。
目前,SK海力士已于今年2月联合闪迪成立HBF标准化联盟,意在抢占生态系统主导权。三星则一方面持续推进HBM4E等下一代HBM产品,另一方面同步投入与HBF概念相符的NAND架构研发,据Aju News报道。
两家巨头的布局路径不同,但目标指向同一个赛道。谁能率先完成从标准制定到量产交付的闭环,将在很大程度上决定下一轮AI内存市场的格局。





京公网安备 11011402013531号