在科技飞速发展的今天,AMD 再一次引领潮流,推出了基于 Zen5架构的锐龙 AI Max+395。这款处理器不仅是行业的佼佼者,更是首个能够在本地运行700亿参数 AI 大模型的平台。而现在,AMD 宣布重磅升级,锐龙 AI Max+395可以支持本地运行高达1280亿参数的大模型,进一步拓展了其在 AI 领域的应用潜力。
为了实现这样的性能,锐龙 AI Max+395依旧需要搭配128GB 的统一内存,其中96GB 必须被分配作为显存。此外,该处理器还要求在 Vulkan llama.cpp 环境下运行,这为开发者提供了更大的灵活性。新的升级使得锐龙 AI Max+395成为第一个能够运行1090亿参数的 meta Llama4Sout 大模型的平台,该模型体积达66GB,支持多种高级功能如 Vision 和 MCP。
这次升级的核心在于混合专家(MoE)模式,这种模式每次仅激活模型的一部分,从而在保持性能的同时大幅降低资源消耗。锐龙 AI Max+395在实际测试中可以实现每秒15Tokens 的处理速度,表现相当出色。同时,它还支持68GB 体积、1230亿参数的 Mistral Large 模型,以及其他多个小型模型,如18GB、300亿参数的 Qwen3A3B 和17GB、270亿参数的 Google Gemma。
更为惊人的是,锐龙 AI Max+395在上下文处理上也有了质的飞跃,最大支持256000Tokens 的上下文长度,让其能够处理和分析更为复杂的数据资料。虽然一般的非大规模模型在32000Tokens 的上下文下已足够,但此次升级后的处理器带来了更多可能性,往日需要高端设备才能实现的超大规模上下文,如今也能在 AMD 的产品中轻松实现。
价格方面,搭载锐龙 AI Max+395及128GB 内存的迷你 AI 工作站,现已降至1.3万元左右,性价比显著提升,极大地降低了高端 AI 应用的门槛。