美团也推出一款名为 LongCat-Flash 的非推理开源(MIT)大模型,总参数量为 5600亿, MoE架构,激活 186亿至313亿参数(平均约270亿),模型性能看起来还是很不错的,尤其在智能体(Agentic)任务方面表现突出
一大看点是模型采用了 shortcut-connected 架构,扩展了计算与通信的重叠窗口,使推理能够在成本可控的情况下达到每秒100 Token 以上,我刚试了一下速度真的超快
体验地址:
https://longcat.ai
关键特性
可扩展的高效架构设计
LongCat-Flash 的设计与优化遵循两个核心原则:
1.高效的计算利用
2.高效的训练与推理
具体而言:
并非所有 Token 都同等重要,因此研究人员在 MoE 块中引入了 零计算专家机制,根据 Token 的重要性动态分配计算预算,即在总计 5600亿参数中,根据上下文需求激活 186亿至313亿参数
为确保计算负载稳定,采用 PID 控制器调整的专家偏置,保持每个 Token 平均约 270亿激活参数
随着 MoE 模型扩展,通信开销会成为瓶颈。为此,采用了 Shortcut-connected MoE (ScMoE) 设计,扩展计算与通信的重叠窗口。配合定制化的基础设施优化,该设计使得模型能够在 数万加速器规模 上进行大规模训练,并在推理时实现 高吞吐率和低延迟。
有效的模型扩展策略
如何有效地扩展模型规模,是策略设计中的核心挑战。为此美团开发了一套全面的 稳定性与扩展框架,确保大规模模型能够稳健训练:
超参数迁移策略:成功地将超参数迁移应用到如此大规模的模型上,通过小规模代理模型的实验结果,预测最优超参数配置,并且具有理论保证
模型生长机制:基于精炼的半规模检查点进行初始化,相较于常规初始化方法表现更优
稳定性套件:包含基于原理的路由器梯度平衡、隐藏的 z-loss(抑制大规模激活)、以及精调的优化器配置
确定性计算:提升大规模集群训练的可靠性,确保实验结果完全可复现,并能够在训练过程中检测 静默数据损坏(Silent Data Corruption, SDC)
这些措施确保了 LongCat-Flash 在训练过程中保持稳定,没有不可恢复的损失峰值
面向智能体能力的多阶段训练管线
通过精心设计的训练管线,LongCat-Flash 被赋予了先进的 智能体行为能力:
初始阶段:专注于为智能体后训练构建更合适的基础模型,采用 双阶段预训练数据融合策略,重点引入推理密集型领域数据
中期阶段:增强模型的推理与编程能力,同时将上下文长度扩展到 128k,以满足智能体后训练的需求
后期阶段:在先进的基础模型上,进一步进行 多阶段后训练。由于高质量、高难度的智能体任务训练数据稀缺,我们设计了一个 多智能体合成框架,通过以下三条轴线定义任务难度:
1. 信息处理 2. 工具集复杂度 3. 用户交互
借助专门的控制器生成需要 迭代推理与环境交互 的复杂任务
参考:
https://huggingface.co/meituan-longcat/LongCat-Flash-Chat