还记得半年前 DeepSeek 横空出世时的震撼吗?那个用不到 OpenAI 1/20 的成本就训练出顶级模型的神话,不仅让整个硅谷为之侧目,更是给国内的 AI 创业公司上了生动的一课——原来,大模型可以这样玩。
DeepSeek 冲击波下的转型之路
对于被称为AI 六小龙的 MINIMAX 来说,DeepSeek 的出现无异于一记当头棒喝。过去的剧本突然就讲不下去了:疯狂烧钱买算力,追着 OpenAI 的脚步跑,今天发个大模型,明天搞个视频生成...看起来很忙,但总感觉在原地打转。
投资人开始问:既然 DeepSeek 能用这么少的钱做出这么好的效果,你们之前烧的那些钱都去哪了?用户开始问:既然有免费的 DeepSeek,我为什么还要付费用你们的 API?
但 MINIMAX 的反应出人意料地迅速和果断。他们没有选择继续讲老故事,而是彻底换了剧本:从追逐热点转向硬核技术突破,从商业化优先转向开源优先,从模仿 OpenAI 转向对标 DeepSeek。
实际上,MiniMax 在今年 1 月份就推出了开源模型 Minimax-01,其中包括语言模型和视觉模型,但似乎反向平平。
半年的蛰伏与沉淀后,他们暂停了所有非核心项目,把最优秀的工程师都调到了一个神秘的项目上。
MiniMax-M1:半年磨一剑的技术突破
昨天,MINIMAX 终于交出了答卷——MiniMax-M1,他们宣称这是世界上第一个开源的大规模混合架构的推理模型。这不是一个匆忙的应景之作,而是一次深思熟虑的技术革新。