在人工智能竞赛进入“下半场”的今天,模型性能的比拼已不再是唯一焦点,高效、低成本、强推理能力正成为定义下一代AI核心竞争力的关键。今天凌晨,总部位于上海的AI独角兽企业MiniMax突然向开源社区投下一枚“重磅炸弹”:正式发布其自主研发的MiniMax-M1系列模型。
M1被定义为“全球首个开源的大规模混合架构推理模型”,它不仅在多个核心生产力场景中展现出比肩甚至超越业界顶尖模型的实力,更以惊人的成本效益和技术创新,为AI的规模化应用和未来发展路径提供了全新的想象空间。
技术报告显示,M1模型在处理百万级Token的长文本上实现了重大突破,成为上下文最长的推理模型;其RL(强化训练)成本下降一个量级,成本仅53万美元,推理效率则数倍于竞争对手;在工具使用场景(TAU-bench)中MiniMax-M1-40k同样领跑所有开源权重模型,超过Gemini-2.5Pro。毫无疑问,MiniMax-M1已经成为Agent时代的首选开源基座模型。
MiniMax-01模型发布快速引起海外X、Huggingface等业内人士关注
“性能比肩DeepSeek-R1,性价比新王”“又一次卷到硅谷了”……记者注意到,M1发布后,技术社区和行业观察者迅速给出高度评价。除了关注模型参数以及长文本SOTA等技术指标,更多聚焦在M1带来的极致性价比。
在性能方面,MiniMax在业内公认的17个主流评测集上对M1进行了全面“大考”。结果显示,M1在软件工程、长文本理解和工具使用等面向生产力的复杂场景中,优势尤为突出。值得注意的是,在绝大多数基准测试中,拥有更长推理能力的M1-80k版本始终优于M1-40k,这充分证明了其架构在扩展计算资源时的有效性和可塑性。
据透露,MiniMax-M1的卓越性能,根植于其独特的架构设计和算法创新。其中,两大核心技术——线性注意力机制(Lightning Attention)混合构架和更快的强化学习算法CISPO,构成了其高效能、低成本的基石。
记者获悉,长文本处理能力是衡量现代大模型先进性的“试金石”。M1模型原生支持高达100万Token的上下文窗口,这一数字与谷歌最新的Gemini 2.5Pro持平,是国内另一开源强手DeepSeek R1(12.8万Token)的近8倍。同时,它还支持业内最长的8万Token推理输出,为处理复杂文档分析、长篇代码生成等任务提供了前所未有的可能性。实现这一突破的关键,在于MiniMax独创的Lightning Attention混合构架。传统Transformer模型在处理长序列时,注意力机制的计算量会随序列长度呈平方级增长,成为制约性能和成本的主要瓶颈。M1的混合架构,特别是注意力机制,能够显著优化长下文输入的计算效率。
MiniMax的雄心不止于发布一个模型。官方表示,完整的M1模型权重、技术报告均已在Hugging Face和GitHub上开放获取。同时,公司正积极与国家超算平台、vLLM等业界主流开源框架合作,以确保开发者能够轻松、高效地部署和使用M1模型。更令人期待的是,M1的发布仅仅是MiniMax“开源周”的序幕。在接下来的四个工作日里,MiniMax计划每天发布一项新的技术或产品更新,持续为AI社区带来惊喜。
作者:郜阳