IT之家 8 月 27 日消息,科技媒体 WccfTech 昨日(8 月 26 日)发布博文,报道称在 Hot Chips 2025 上,AMD 公布了 Instinct MI350 系列 AI 加速卡的完整架构细节。
该系列基于 3nm CDNA 4 架构,采用 3D 多芯粒设计,集成 1850 亿晶体管,支持 288GB HBM3e 高带宽显存,总带宽达 8TB/s。
IT之家援引博文介绍,MI350 系列是 AMD 针对 AI 领域的最新旗舰方案,主要提升训练和推理大语言模型(LLM)的能力,基于全新 CDNA 4 架构与 3nm 工艺,采用 3D 多芯粒(3D Multi-Chiplet)设计,单卡集成 1850 亿晶体管,并引入 288GB HBM3e 显存,单卡带宽高达 8TB/s。
MI350 系列中包括风冷的 MI350X 与液冷的 MI355X,两者分别具备 1000W 与 1400W 功耗上限,最高频率分别为 2.2GHz 和 2.4GHz。
核心采用 8 个 XCD(加速计算芯粒)与 2 个 IOD(IO 芯粒),通过第四代 Infinity Fabric 互联,双向带宽可达 1075GB/s,并内置 256MB Infinity Cache,HBM3e 控制器支持 8 颗 36GB 堆叠显存,形成 288GB 总容量。
在计算单元方面,单卡配备 256 个计算单元(CU),共 16384 个流处理器及 1024 个矩阵核心,支持 FP8、MXFP6 / MXFP4、INT8 / INT4 等多种低精度数据类型,FP4 / FP6 算力最高 20PFLOPs,FP8 算力最高 80.5PFLOPs。
与上代 MI300 系列相比,运行 Llama 3.1 405B 推理吞吐性能提升可达 35 倍,Deepseek R1 推理能力提升 3 倍。
系统扩展上,MI350 系列支持 GPU 和显存按需分区,可在单插槽内运行多达 8 个 700 亿参数模型实例,并可在多卡配置下通过 154GB/s 双向链路互联。
标准 OAM 封装可安装至 UBB2.0 底板,8 卡系统可搭配最新第五代 EPYC 处理器与 400GbE 网络接口,部署于数据中心机架。
相比较英伟达的 GB200 / B200 ,MI355X 在 FP6、FP64 等指标上具备 2 倍以上优势,HBM 容量领先 1.6 倍。AMD 表示,该系列将于 2025 年第三季度由合作伙伴供货,并透露已着手研发下一代 MI400 系列,计划 2026 年推出。