IT之家 11 月 26 日消息,韩媒 ETNews 今天(11 月 26 日)发布博文,报道称英伟达携手 meta、三星电子、SK 海力士等科技巨头,为提升 AI 性能,正探索将 GPU 核心集成至下一代 HBM(高带宽存储器)的技术方案。

据多位业内人士透露,meta 和英伟达正在积极探讨此方案,并已开始与三星电子、SK 海力士进行合作洽谈。
IT之家援引博文介绍,该技术旨在打破传统计算架构中内存与处理器分离的模式,通过在 HBM 的基底裸片(base Die)中植入 GPU 核心,实现计算与存储的深度融合。
HBM 作为一种通过垂直堆叠多个 DRAM 芯片实现的高性能存储器,专为处理人工智能(AI)所需的海量数据而设计,其最底层的基底裸片目前主要负责内存与外部设备间的通信。
即将于明年量产的 HBM4 已计划在基底裸片上集成控制器,以提升性能和效率。而此次讨论的“GPU 核心内嵌”方案,则是在此基础上更进一步的重大技术跨越,它将原本集中于主 GPU 的运算功能部分转移至 HBM 内部。
将 GPU 核心植入 HBM 的主要目的在于优化 AI 运算的效率,通过将运算单元与存储单元的物理距离缩至最短,可以显著减少数据传输延迟和随之产生的功耗,从而减轻主 GPU 的负担。
这种“存内计算”的思路,被视为突破当前 AI 性能瓶颈的关键路径之一,有助于构建更高效、更节能的 AI 硬件系统。
要实现这一设想仍面临诸多技术挑战。首先,HBM 基底裸片受限于硅通孔(TSV)工艺,可用于容纳 GPU 核心的物理空间非常有限。
其次,GPU 运算核心是高功耗单元,会产生大量热量,因此如何有效解决供电和散热问题,防止过热成为性能瓶颈,是该技术能否落地的关键。





京公网安备 11011402013531号