当前位置: 首页 » 资讯 » 新科技 » 正文

​硅基流动上线蚂蚁百灵团队 Ling-flash-2.0,推理速度再创新高

IP属地 中国·北京 编辑:沈如风 Chinaz 时间:2025-09-18 12:33:03

近日,硅基流动大模型服务平台正式上线了蚂蚁集团百灵团队最新开源的 Ling-flash-2.0,这是该平台上线的第130个模型。

Ling-flash-2.0是一款基于 MoE 架构的大型语言模型,拥有100亿参数,并且在激活时仅使用6.1亿参数(非嵌入激活4.8亿)。经过20TB 以上高质量语料的预训练、监督微调和多阶段强化学习,该模型在激活6亿以上参数的情况下,展现出了媲美40亿参数 Dense 模型的卓越性能。

Ling-flash-2.0在复杂推理、代码生成和前端研发等领域表现出色,能够支持最大128K 的上下文长度,给用户提供更强大的文本处理能力。其定价也相对亲民,输入为每百万个 Token1元,输出为每百万个 Token4元。同时,国内和国际站的新用户可分别获得14元或1美元的使用体验赠金。

Ling-flash-2.0在性能上具有明显优势。与40亿参数以下的 Dense 模型(如 Qwen3-32B-Non-Thinking 和 Seed-OSS-36B-Instruct)以及更大激活参数的 MoE 模型(如 Hunyuan-A13B-Instruct 和 GPT-OSS-120B/low)相比,Ling-flash-2.0展现了更强的复杂推理能力。尤其在创作类任务中,该模型同样具有很强的竞争力。

此外,Ling-flash-2.0的架构经过精心设计,能够实现极速推理。在 Ling Scaling Laws 的指导下,Ling2.0采用了1/32激活比例的 MoE 架构,并在多个细节上进行了优化,这使得小激活的 MoE 模型能够获得相当于 Dense 架构的性能优势。通过 H20进行部署时,Ling-flash-2.0的输出速度可达到每秒200多个 Token,相比36B 的 Dense 模型提升了3倍以上的速度。

硅基流动平台致力于为开发者提供快速、经济、可靠的大模型 API 服务。除了 Ling-flash-2.0,平台上还汇聚了多种语言、图像、音频、视频等模型,满足开发者不同的需求。开发者可以在平台上自由对比和组合各类模型,轻松调用高效的 API,助力生成式 AI 应用的最佳实践。

国内站在线体验

https://cloud.siliconflow.cn/models

国际站在线体验

https://cloud.siliconflow.com/models

划重点:

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。