当前位置: 首页 » 资讯 » 新科技 » 正文

美团发布 LongCat-Flash-Chat:560B 参数模型再创新高,智能体表现惊艳!

IP属地 中国·北京 编辑:顾青青 Chinaz 时间:2025-09-01 16:18:16

近日,美团正式发布并开源了其最新的 AI 大模型 ——LongCat-Flash-Chat。这款模型以560B 的总参数量和18.6B 到31.3B 的激活参数范围,展现了其在计算效率与性能之间的优越平衡。LongCat-Flash 采用了创新的混合专家模型(MoE)架构,利用 “零计算专家” 机制,使得每个 token 在处理时仅激活必要的参数,确保算力高效利用。

在模型架构方面,LongCat-Flash 还引入了跨层通道设计,极大提升了训练和推理的并行性。这使得模型在仅仅30天的训练时间内,就在 H800硬件上达到了单用户每秒处理100个 token 的推理速度。值得注意的是,该模型的训练过程中,采用了 PID 控制器来实时调整专家的偏置,保持激活参数的平均水平在27B,从而有效控制算力消耗。

不仅如此,LongCat-Flash 在智能体能力的提升上也做了诸多优化。通过构建自有的 Agentic 评测集和多智能体数据生成策略,该模型在各类智能体任务中表现优异,尤其是在复杂场景下,其在 VitaBench 基准测试中的得分更是位列第一。相较于参数规模更大的模型,LongCat-Flash 依然展现出卓越的智能体工具使用能力。

在通用知识方面,LongCat-Flash 同样不甘示弱。在 ArenaHard-V2测试中,其得分达到86.50,位列所有评估模型的第二;而在 MMLU 和 Ceval 基准测试中分别获得89.71和90.44的高分,显示出其在语言理解和中文能力评估上的竞争力。

LongCat-Flash-Chat 以其高效的推理速度和出色的智能体表现,不仅在技术上领先同行,且其开源举措也为开发者提供了更多的研究和应用机会。

项目地址:https://github.com/meituan-longcat/LongCat-Flash-Chat

体验官网:https://longcat.ai/

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。