当前位置: 首页 » 资讯 » 新科技 » 正文

养“虾”要用“脑”:万亿参数之后,行业终于开始关心“参数含金量”

IP属地 中国·北京 懂懂笔记 时间:2026-03-24 18:24:02


撰文 | 懂懂

编辑 | 秦言

懂懂笔记

「 用更少的算力开销,产生更大的智能价值,已成为破解AI落地成本困局的核心密码。」

2026年开年,整个AI圈最热的话题莫过于“养虾”。

这里说的“虾”,是因其Logo酷似龙虾钳而戏称的OpenClaw——一个现象级的开源AI智能体框架。


在短短数月内,其GitHub星标数突破28万,超越React、Linux等老牌项目登顶全球第一,被业界视为AI从聊天走向干活的范式转移标志。

这股热潮不仅席卷了个人开发者和极客社区,更实实在在地点燃了企业用户的热情。从科技巨头到传统企业,无数团队摩拳擦掌,希望利用OpenClaw打造自己的数字员工,自动化处理繁琐工作,开启效率革命。

然而,许多兴致勃勃开养的企业发现,自己的“虾”(这里泛指智能体)经常翻车:处理一份稍复杂的财报就直接宕机,任务链条超过五步大脑就断片儿,更别说在长文档分析、跨系统查询等真实业务场景中稳定输出了。

热闹是真热闹,但真用起来也是很崩溃。这背后揭示了一个核心命题:当AI的手脚(智能体)已经备好,我们究竟需要一个什么样的大脑(大模型),才能让它真正在企业中稳定、高效地跑起来?

热潮与痛点:当AI落地遭遇不可能三角

2025年,已被广泛视为企业智能体(Agent)元年。企业对AI的期待,从对话、生文等单一功能,全面转向能够自主执行复杂工作流的数字员工。

今年OpenClaw的引爆,将这一期待推向了前所未有的高潮。在YuanLab.ai团队看来,OpenClaw作为一个现象级产品,对于AI落地推动的意义在于两方面:

一方面,OpenClaw让智能体的价值变得具象化,每个人都有可能快速搭建一个能上网、能操作软件、能处理文件的AI助手。

另一方面,其开源和共创模式,吸引了全球开发者涌入,在社区中分享插件、交流经验,形成了强大的生态合力,加速了整个智能体能力的进化。“以前是烟囱形式升级,没有产生合力,而未来大家可以在社区里分享,就能更快、更好地帮助企业解决大模型落地难的问题。”YuanLab ai团队的Allen博士说。


企业对AI的热情因OpenClaw再添一把火。然而,当热情照进现实,落地之路却荆棘密布,企业普遍面临几个挥之不去的核心痛点:

首先,是精准的困境。

许多智能体在处理企业核心业务,如财报分析、合同审阅、技术文档解析时,输出的内容夹杂幻觉,数据不准确,逻辑经不起推敲,企业根本“不敢放心用”。在YuanLab ai团队看来, AI落地的第一大痛点就是模型的准确性。


其次,是高效的挑战。

智能体的任务往往是多步骤、长链路的。当前许多模型存在严重的“过度思考(Overthinking)”问题,在得到答案后仍会进行大量无效的反思和验证。在长任务链中,单步的冗余会被指数级放大,导致响应慢、成本高,最终可能因延迟累积而任务失败。

第三,是成本的焦虑。

想要高智能,似乎就必须承担更高算力开销(Token消耗)。这使得企业陷入两难:用能力强的大模型,成本高不可攀;为控制成本选用小模型,复杂任务又根本无法胜任。

以上痛点恰恰构成了当前企业AI落地的一个“不可能三角”:精准、高效、低成本,难以兼得。

要破解这个三角,必须认清一个根本关系:在“大模型是大脑,Agent是手脚”的范式中,智能体框架(如OpenClaw)决定了AI能做什么,而底层大模型才决定了AI能做成什么样。手脚再灵活,如果大脑不够聪明、不够稳定,一切皆是空谈。

因此,解决AI落地痛点的关键,不仅在于拥有好用的智能体框架,更在于底层大模型的持续进化与务实优化。也就是说,要想把虾养好,关键是要有好的大脑。

破解之道:用智能密度击穿“不可能三角”

要想AI更精准,大模型的参数也就要更大。伴随大模型参数越来越大而来的,就是行业陷入了“规模与效率”的悖论之中。YuanLab.ai团队最近发布的Yuan 3.0 Ultra,提供了一条不同的思路。


「 开源地址 」

GitHub项目

https://github.com/Yuan-lab-LLM/Yuan3.0-Ultra

「 论文链接 」

https://arxiv.org/abs/2601.14327

作为全球三个万亿级开源多模态大模型之一,其所有技术创新都指向一个目标——提升智能密度,即用更少的算力开销,产生更大、更确定的智能价值,“这么多年我们团队一直在干一件事,就是如何用更少算力去产生更多的智能。“Allen表示,在这个思路下,团队很早就提出了模算效率的概念,现在这已经被行业普遍认同。随着对大模型落地的认知加深,智能密度的概念逐渐浮出水面,而这恰恰是针对“不可能三角”的精准破局。

总结Yuan 3.0 Ultra的创新逻辑,可以分为三个维度:

首先,训练端团队优化,裁掉“摸鱼”的专家,拒绝参数虚高。

Yuan3.0 Ultra采用主流的高效架构——混合专家模型(MoE),这好比组建一个百人专家团队。但研发团队发现,在训练稳定后,这个百人团队严重不均衡:少数几个专家干了绝大部分的活,而大量专家长期低负载、几乎不产生价值。实测中,负载最高与最低的专家工作量相差近500倍。企业却要为所有专家支付算力工资,这是巨大的浪费。

为此,YuanLab.ai团队发明了LAEP(自适应专家裁剪算法)。它就像一个聪明的人力资源优化系统,在训练过程中动态监测,精准识别并裁掉那些长期“摸鱼”、贡献极低的冗余专家,并对剩下的高效专家进行重组,让他们协同更流畅。


(MoE模型训练过程中存在专家训练不均衡问题)

效果是惊人的:模型参数从1515B(1.515万亿)优化至1010B(1.010万亿),裁剪掉33.3%的冗余参数,整体预训练算力效率反而提升49%。最终,用户用一个1010B参数的模型,单次推理仅激活68.8B参数,就能享受到万亿级模型的智能。这直接破解了成本焦虑,让企业用得起旗舰模型。


(Yuan3.0 Ultra采用LAEP显著提升预训练效率)

其次,在推理端高效思考,抑制过度反思,让AI想对就停。

模型越大,容易患上强迫症,在已经得出正确答案后,还会反复纠结、自我验证,生成大量无效内容。这在单轮对话中只是多花点钱,但在智能体的长任务链中,每一步的冗余都会叠加,导致成本爆炸和延迟激增。

Yuan3.0 Ultra引入了RIRM(反思抑制奖励机制)。这就像在模型训练时设立一套新的奖励规则:不仅奖励“答对”,更奖励“在答对后及时停止无效思考”。通过强化学习,模型学会了在复杂任务中进行深度推理,在简单任务中快速响应,在获得可靠答案后主动收敛。


(RIRM优化下的推理效率提升与 Token 消耗对比)

实测数据表明,改进后的RIRM让模型在相关任务上训练精度提升16.33%的同时,输出Token长度降低了14.38%。这意味着更准、且更快。在长链条的企业Agent任务中,这种效率提升会被层层放大,根本性缓解“高效”挑战。

第三,在理解端精准聚焦,过滤无效信息,让AI看得更准。

成本降了、速度快了,但如果模型看不懂企业复杂的业务文档,一切仍是空谈。现实中的技术方案、财报、合同往往是图文混排的长文档,信息分散、结构复杂,传统模型容易迷失在大量细节中,抓不住重点。

Yuan3.0 Ultra 引入了LFA(局域过滤注意力机制),强化长上下文语义关联能力。可以把它理解为给模型的注意力加装了一个智能滤镜。在阅读长文档时,这个机制能帮助模型自动过滤掉无关的、干扰性的信息,将注意力精准聚焦在关键语义和逻辑关联上。

这就像一位经验丰富的分析师,能快速掠过文档中格式化的套话和冗余描述,一眼锁定核心数据、结论以及跨页面的因果联系。得益于LFA机制,模型对长上下文、复杂语义关系的建模能力得到显著增强,在处理企业级图文混排文档、进行跨页信息检索与推理时,准确性大幅提升。这直接攻克了“精准”难题,让AI产出的结果更可靠、更可用,真正“用得好”。

总结来看,LAEP决定了模型用多少有效参数去学,从源头削减成本;RIRM决定了模型推理到何时该停,在过程中提升效率;LFA决定了模型如何精准捕捉信息,在结果上保障精准。三者协同,从训练、推理到理解,构成了破解“不可能三角”的完整技术闭环。

产业之变:从参数竞赛到价值深耕

Yuan3.0 Ultra的技术路径,背后是YuanLab.ai团队一以贯之的“有效智能”核心理念,“我们的目标是死磕有效智能,解决企业客户在落地中真金白银的成本和效率问题。”Allen表示。

Yuan3.0 Ultra的创新逻辑,也映射出中国大模型产业正在发生的深刻转向:从早期的参数规模竞赛,进入务实的智能密度竞争与产业价值深耕阶段。


早期,行业追逐更大参数、更长上下文、更高Benchmark分数。但当技术走向产业深水区,企业客户关心的是解决实际业务问题、控制真金白银的成本、获得可验证且稳定的输出。

单纯的规模堆砌,使得边际效益加速递减。智能密度概念的提出恰逢其时,智能不是追求模型无限变大,而是追求单位算力所能产生的有效智能最大化。这要求模型在架构(如MoE优化)、训练(如LAEP)、推理(如RIRM)全链条上进行精细化的效率革命。

所以,企业在选择AI大脑时,不应再被单纯的参数规模或评测分数迷惑,而应重点考察:它是否针对我的业务场景(如文档、表格、数据库)做了深度优化?它的训练和推理效率如何,总拥有成本(TCO)是否可控?它能否提供稳定、可审计、可解释的输出结果?

在今年两会期间,全国人大代表、华中科技大学副校长冯丹在接受媒体采访时也提到了这一概念:“当前,全球人工智能竞争已进入以大模型为核心的智能密度比拼阶段。加快大模型推理能力应用落地,是抢占产业智能化制高点的战略需求。”

OpenClaw的火热与大模型的效率革命,正推动大模型与智能体(Agent)进入一个协同演进、互相定义的新阶段。当底层大模型的基础能力越来越强、且越来越高效,上层的智能体框架就能从繁重的任务拆解中解放出来,更专注于多智能体协同、业务流程编排和结果校验,进化成企业内部的AI操作系统。对于企业而言,这意味着AI真正成为更高效的生产力。

“我感觉AI真的要落地了。以前大家都当作一个玩具,一个陪伴,现在各个层面的能力都实现了跃迁,我感觉离AGI真的不远了。”Allen很兴奋,因为AI不再停留于表面的热闹,而是正在真正转化生产力,为各行各业的提质增效。

(更多详尽信息请浏览yuanlab.ai 视频号内容)

冷眼旁观 麻辣点评 深入分析


个人观点,仅供参考

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。