当前位置: 首页 » 资讯 » 新科技 » 正文

美团杀入开源大模型混战:LongCat登场,推理速度直破100 Token/s

IP属地 中国·北京 编辑:沈瑾瑜 AI寒武纪 时间:2025-08-31 22:18:51


美团也推出一款名为 LongCat-Flash 的非推理开源(MIT)大模型,总参数量为 5600亿, MoE架构,激活 186亿至313亿参数(平均约270亿),模型性能看起来还是很不错的,尤其在智能体(Agentic)任务方面表现突出


一大看点是模型采用了 shortcut-connected 架构,扩展了计算与通信的重叠窗口,使推理能够在成本可控的情况下达到每秒100 Token 以上,我刚试了一下速度真的超快

体验地址:

https://longcat.ai

关键特性

可扩展的高效架构设计

LongCat-Flash 的设计与优化遵循两个核心原则:

1.高效的计算利用

2.高效的训练与推理

具体而言:

并非所有 Token 都同等重要,因此研究人员在 MoE 块中引入了 零计算专家机制,根据 Token 的重要性动态分配计算预算,即在总计 5600亿参数中,根据上下文需求激活 186亿至313亿参数

为确保计算负载稳定,采用 PID 控制器调整的专家偏置,保持每个 Token 平均约 270亿激活参数

随着 MoE 模型扩展,通信开销会成为瓶颈。为此,采用了 Shortcut-connected MoE (ScMoE) 设计,扩展计算与通信的重叠窗口。配合定制化的基础设施优化,该设计使得模型能够在 数万加速器规模 上进行大规模训练,并在推理时实现 高吞吐率和低延迟。

有效的模型扩展策略

如何有效地扩展模型规模,是策略设计中的核心挑战。为此美团开发了一套全面的 稳定性与扩展框架,确保大规模模型能够稳健训练:

超参数迁移策略:成功地将超参数迁移应用到如此大规模的模型上,通过小规模代理模型的实验结果,预测最优超参数配置,并且具有理论保证

模型生长机制:基于精炼的半规模检查点进行初始化,相较于常规初始化方法表现更优

稳定性套件:包含基于原理的路由器梯度平衡、隐藏的 z-loss(抑制大规模激活)、以及精调的优化器配置

确定性计算:提升大规模集群训练的可靠性,确保实验结果完全可复现,并能够在训练过程中检测 静默数据损坏(Silent Data Corruption, SDC)

这些措施确保了 LongCat-Flash 在训练过程中保持稳定,没有不可恢复的损失峰值

面向智能体能力的多阶段训练管线

通过精心设计的训练管线,LongCat-Flash 被赋予了先进的 智能体行为能力:

初始阶段:专注于为智能体后训练构建更合适的基础模型,采用 双阶段预训练数据融合策略,重点引入推理密集型领域数据

中期阶段:增强模型的推理与编程能力,同时将上下文长度扩展到 128k,以满足智能体后训练的需求

后期阶段:在先进的基础模型上,进一步进行 多阶段后训练。由于高质量、高难度的智能体任务训练数据稀缺,我们设计了一个 多智能体合成框架,通过以下三条轴线定义任务难度:

1. 信息处理 2. 工具集复杂度 3. 用户交互

借助专门的控制器生成需要 迭代推理与环境交互 的复杂任务

参考:

https://huggingface.co/meituan-longcat/LongCat-Flash-Chat

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新