当前位置: 首页 » 资讯 » 新科技 » 正文

3倍吞吐量、访存减至1/10!蚂蚁甩出两大万亿参数开源模型,背后架构成关键

IP属地 中国·北京 智东西 时间:2026-02-25 12:22:22


智东西
作者 陈骏达
编辑 漠影

当大模型在推理、编程等能力上不断刷新纪录时,一个新的问题也愈发突出:如何在持续提升模型能力的同时,控制算力与资源消耗?

就在本月,蚂蚁集团inclusionAI团队交出了一份颇具分量的答卷——百灵大模型家族新一代开源万亿参数模型Ling-2.5-1T(即时模型)与Ring-2.5-1T(思考模型)。

这两款模型并非仅靠“堆参数”取胜,它们共享的技术底座——混合线性注意力架构“Ling 2.5”,才是此次发布的关键。在当前主流大模型仍以改进型传统注意力机制为核心架构的背景下,Ling-2.5-1T是业内少见的超大型混合线性注意力架构模型,而Ring-2.5-1T成为了全球首个混合线性注意力架构的万亿参数思考模型

得益于Ling 2.5这一新架构,模型在长文本生成与长程推理场景中,将访存规模压缩至传统架构的1/10,生成吞吐量达原来的3倍。换言之,它让模型在“变聪明”的同时,也学会了“省着花”。

同时,效率的提升并未以性能为代价。在涉及推理、智能体、指令遵循、长上下文等场景的多项基准测试中,Ling-2.5-1T超越了DeepSeek-V3.2-nothink、Kimi-K2.5-Instant和GPT-5.2-chat等同类型的即时模型。


Ring-2.5-1T则在国际数学奥林匹克竞赛(IMO 2025)和中国数学奥林匹克(CMO 2025)达到金牌水平(自测分数为IMO 35分、CMO 105分),开启重度思考(Heavy Thinking)模式后,它在IMOAnswerBench、HMMT-25等数学竞赛推理基准和LiveCodeBench-v6代码生成基准中,超越所有对比模型,无论开源闭源。


那么,蚂蚁百灵的混合线性架构的技术路线究竟是如何实现的?又是如何在不牺牲性能的前提下,撬动如此显著的效率提升?

一、万亿参数时代,传统架构还能走多远?

在大模型持续跃迁的进程中,注意力机制始终处于舞台中央,影响着模型理解长文本、捕捉复杂语义以及生成高质量内容的能力。而Softmax一直是主流架构的核心注意力计算机制,几乎所有Transformer模型都以此为基础。

这种机制每次计算都“翻阅”完整上下文,精准捕捉词与词的关联,赋予模型强大表达力和细粒度对齐能力。但其代价明显:随着文本长度增加,其计算量呈平方级增长,算力和显存消耗迅速攀升。

随着应用场景向超长上下文延展,这种“精细化”的成本被重新审视。线性注意力(Linear Attention)由此进入主流视野。

线性注意力通过数学重构,降低计算复杂度,不再为每一个token反复回溯全部序列,而是依托状态记忆持续传递核心信息——更像是一场接力赛,每一步都承接前一步的成果,无需重走来路。效率的跃升是显而易见的:更低的FLOPs、更小的显存占用、更快的生成速度。

然而,线性机制也并非万能。在需要精准定位关键信息、进行细粒度语义对齐或复杂长程依赖建模的任务中,其表现有时难以匹敌传统注意力。于是,一条兼顾性能与效率的技术路径逐渐成型——混合线性注意力架构(Hybrid Linear Attention)

这一思路其实很直观。同一模型中进行“分层分工”。部分层保留传统注意力处理复杂语义与全局依赖,部分层采用线性机制以降低计算负担,从而让模型在表达能力与计算效率之间实现动态平衡。

然而,理念清晰并不意味着实现简单。真正将混合架构推向超大规模参数训练,仍面临多重挑战。

首先是训练稳定性问题,两种机制在同一网络中协同运行,在超大规模预训练下容易引发数值震荡,影响收敛与梯度稳定。

其次是比例调优难题,多少层采用传统注意力、多少层采用线性机制,并无通用公式,研究者需在工程与实验中反复权衡。

再者,在上下文不断扩展的背景下,如何确保线性部分高效传递状态而不丢失关键语义信息,也成为架构设计的核心瓶颈之一。

二、告別暴力堆算力、堆参数,如何实现混合架构的万亿级工程化跃迁

当前,包括Minimax、月之暗面、阿里以及OpenAI等机构均已探索了混合线性注意力架构的应用潜力,行业逐渐形成共识:混合结构是突破大模型效率瓶颈的重要路径之一。

在这一趋势之中,蚂蚁百灵的研究同样围绕上述核心问题展开。如果将其在混合线性注意力上的探索浓缩为一条清晰主线,可以分成两个阶段:技术可行性验证阶段万亿规模工程化落地阶段

早在去年9月,蚂蚁百灵团队便开源了Ring-mini-linear-2.0与Ring-flash-linear-2.0,并发布技术报告,验证了线性注意力在真实工业规模训练和长上下文推理中的可用性。

报告中给出的核心架构思想是将线性注意力与Softmax注意力进行分组混合,每个layer group中包含M层线性attention加1层Softmax注意力,从而在保持表达能力的前提下,把复杂度从O(n²)拉向近似O(n)。

通过Scaling Law实验,他们验证了当M=7(即1:7的混合比例)时,在高FLOP预算下表现优于纯softmax结构。这个结论至关重要,因为它证明:在大模型规模下,“线性为主、softmax为辅”的结构不是性能退化,而是效率与效果的更优平衡。

在这项研究中,蚂蚁还发布了两大自研高性能融合算子。一方面,通过精细化的算子融合和自适应重计算量化技术,更高效的FP8融合算子将FP8混合精度训练的计算效率提升至原来的1.5-1.7倍左右。


在推理端,他们开发了更高效的线性注意力融合算子,支持更多的推理模式,进一步提升推理引擎的吞吐。

架构优化与高性能算子协同之下,两款Ring-linear模型在深度推理场景下的推理成本仅为同尺寸Dense模型的约1/10,相较原有Ring系列成本也下降超过50%。

完成初步探索后,蚂蚁百灵团队在其基础上提出了Ling 2.5 架构:在Ling 2.0的基础之上,通过“增量训练”的方式,将原有GQA(改进版的注意力机制,仍然基于Softmax)升级为1:7的MLA + Lightning Linear混合结构,把混合线性注意力架构真正推向万亿规模。


在Ling 2.5架构中,大部分GQA层都被改造为了Lightning Linear Attention,以提升长程推理的吞吐能力;剩余GQA层近似转为MLA,以压缩KV Cache并保留表达能力

整个改造过程中保留QK Norm、Partial RoPE等关键机制,并进行了针对性适配,从而保证模型架构迁移过程中表达能力不塌陷。

改造完成后,Ling-2.5-1T和Ring-2.5-1T的激活参数从51B提升至63B,但在混合线性架构支持下,推理吞吐仍然显著提升,这说明架构优化带来的收益,已经超过参数规模增加带来的负担。

在架构改造之后,蚂蚁还进一步对Ling-2.5-1T-base进行了基于9T优质语料的持续预训练,重点强化了预训练基座的世界知识覆盖与智能体交互的基础能力。

同时,凭借混合线性注意力架构在长文本处理上的高计算效率与可扩展性,他们将Ling-2.5-1T的上下文窗口扩展训练至256K tokens,并通过YaRN外推支持最高1M tokens的超长上下文处理能力。

三、从实验室到真实场景:架构优化带来了什么?

在蚂蚁对外发布的基准测试中,我们能直观感受到混合线性注意力带来的性能提升。

以AIME 2026评测为例,当平均输出长度约为5890个token时,新一代Ling-2.5-1T模型的表现显著超越前代Ling-1T,并已逼近前沿思考模型的水平。值得注意的是,后者通常需要生成15000到23000个token才能完成同样复杂的任务。


在衡量长文本处理能力的RULER与MRCR基准测试(覆盖16K至256K token范围)中,Ling-2.5-1T取得了优于采用MLA/DSA架构的主流大型即时模型(如Kimi K2.5、DeepSeek V3.2)的分数。

Ring-2.5-1T则在数学、代码、逻辑等高难推理任务和智能体搜索、软件工程、工具调用等长程任务执行上均达到了开源领先水平。这些任务的性能提升,与混合线性注意力架构在处理长程依赖和状态压缩方面的优势密切相关。线性机制实现了高效的上下文信息传递,有效支撑了复杂推理任务对长序列建模的需求。

这种架构上的优势也直接转化为工程实践上的红利。即便在激活参数量增加至63B的情况下,基于混合线性注意力的Ling-2.5在单机8卡H200的配置下,其长文本生成的解码吞吐量(decode throughput)仍显著优于前代1T规模模型以及同等参数量的Kimi K2。

并且,随着生成文本长度的增加,这种吞吐量优势变得越发明显,充分展现了混合线性注意力在长程推理场景下的效率优越性。


模型能力的提升在实际应用案例中同样得到了体现。在下方这个关于《知识产权质押纠纷》的复杂法律指令遵循任务中,Ling-2.5-1T能够严格遵循超过10项涵盖内容框架、细节、格式和字数等多维度的指令约束,生成条理清晰、逻辑连贯的答复。

这得益于优化后的长上下文能力,确保了模型能在跨越多个细分指令的过程中始终保持一致性,避免信息断裂。


而在这个财报解读案例中,模型可以对数十页的财报进行信息的抽取汇总,并对重点财务衍生指标进行计算,得到财报的深度分析结论。


庞大的长上下文窗口与高效的token利用率,使得这类复杂任务无需分解,即可一次性流畅完成。

这些技术特性在实际应用中具有明确的商业价值。长期以来,大模型在规模化部署中主要受限于推理成本,而此次架构层面的优化直接降低了单位请求的算力开销,使企业能够在同等硬件条件下支持更高并发,进而降低AI功能集成的门槛。

百万token级别的长上下文支持,拓展了模型在复杂文档处理场景中的可用性,例如长篇幅法律文书的语义解析、科研文献的批量梳理等。同时,模型在多步推理与跨段落信息整合方面的表现,也为构建企业级智能体及知识处理自动化系统提供了更稳定的技术基础。

结语:跳出“参数竞赛”,回归架构进化的本质

就在2月,蚂蚁百灵大模型家族迎来了一系列重要开源与发布:原生全模态模型Ming-flash-2.0、扩散语言模型LLaDA2.1、思考模型Ring-2.5-1T,以及旗舰基座即时模型Ling-2.5-1T。这一系列模型在多个关键基准上具备竞争力,让蚂蚁稳居国内大模型行业第一梯队,而全系列开源的策略,也让其成为当下AI开源生态中不可忽视的新力量。

回溯百灵家族的整体布局,其演进逻辑清晰可见:并非单一追求参数规模攀升,而是在多模态感知、语言生成机制、深度推理能力与即时响应效率等核心维度上全面布局,构建互为补充、协同进化的模型矩阵。

而站在更宏观的行业视角,Ling 2.5架构的成功,传递出一个重要信号:架构创新仍是大模型演进的关键变量。更高的推理效率、更长的上下文处理、更低的部署成本——这些由架构革新带来的系统性优势,正在重新定义大模型的能力边界。

当技术路线趋于多元,当开源生态持续繁荣,开发者也就拥有了更灵活的工具组合来应对不同场景的挑战。


免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。