当前位置: 首页 » 资讯 » 新科技 » 正文

李文正:AI大模型迈向“多智能体协同”新阶段

IP属地 中国·北京 编辑:冯璃月 产联社CLS 时间:2026-03-30 02:15:34

近日,产联智库举办“AI赋能产业升级与经济发展”圆桌对话,邀请来自学界、产业界的嘉宾,围绕2026年AI智能体热潮、AI与产业融合、中小企业智能化转型等核心话题展开深入探讨。

在对话中,北京工业大学教授、IEEE China Council常务理事兼工业合作与创新委员会主席李文正,结合自身在人工智能大模型与高性能异构计算机群计算领域的深耕经验,围绕当前人工智能大模型与智能体发展,Agentic AI时代计算架构的底层范式转移及算力与电力协同优化创新等核心问题,发表了观点。

他表示,AI大模型本质是对人类知识的压缩与对齐,使得机器具有通用对话与生成的能力。当前AI大模型正迈向“Agentic AI”阶段,形成“大模型+智能体+环境”的协同生态,深刻影响物理与数字世界。

2026年开年,OpenClaw等开源智能体的爆火引发了行业对“AI独立上岗”的热烈讨论。

业界普遍关注这波热潮究竟是巨头垄断,还是混战的开始。Gartner预测多智能体系统将迎来突破之际,如何界定智能体的能力边界成为焦点。

李文正回顾了人工智能从判别式AI到生成式AI,再到如今Agentic AI的发展历程。他指出,大模型的本质是对人类知识的压缩与对齐,解决了机器通用对话与生成的能力。智能体的出现,标志着AI大模型从“对话”向“执行真任务”以及“解决真问题”转变。

他指出,从实现技术路径上有两条技术路径:一条是以OpenAIGPT5.4为代表大一统模型,将大模型原生深度集成到工作流之中,使得 GPT-5.4 原生电脑操作,超越人类,解锁电脑操作,让AI大模型从对话工具变成执行智能体;另一条是以AnthropicClaude Opus 4.6为代表多AI Agent协同大框架。

从产品形态上,两个名字尤为耀眼,一个是体验极致的全球首款通用型 AI 智能体Manus,另一个是开源新星OpenClaw。Manus是定位通用型自主AI智能体,属于数字员工,主要运行在云端。OpenClaw定位是开源的本地AI智能体框架,打造自己的数字分身,在数字世界里执行任务,主要运行在自己的本地电脑设备上。Manus 、OpenClaw无自有模型,依靠大框架、工具与生态与强大模型适配与优化。

他强调,Agentic AI强调AI系统以高度自治、主动、目标驱动的运作范式。Agentic AI时代的核心特征是自治性、感知能力、决策/推理能力、行动能力、目标导向。从而使AI大模型从“对话”到“执行”迈向“多智能体协同”新阶段。

AI大模型演进趋势是从 “对话”到“执行”,从“会说”到“会做”

从“对话”到“执行”走向“解决真问题,真解决问题”,但对于企业而言,既是挑战又是机遇,机遇与挑战并存。

李文正表示,AI智能体的发展仍处于快速发展的初级阶段,未来仍需聚焦数字空间智能与物理世界的深度融合,数字空间智能如何与现实物理世界对应,并建立起有意义的联结?成为关注热点。即符号落地问题的解决, 这样才能真正实现从“会说”到“会做”的跨越。

在谈到Agentic AI时代如何影响未来智慧城市运营与城市基础设施时,李文正首先分析了Agentic AI时代智慧城市的特点,他把智慧城市比喻为从一个“能看、能思考”的城市大脑,进化为一个“能动手、能执行”的城市智能体。这不仅意味着城市运营模式的彻底变革,更对城市的智能基础设施提出了前所未有的苛刻要求。

智能体的自主决策与执行能力,将推动城市运营实现三大跃迁:

1. 运营模式:从“被动处置”到“主动预防”

2. 服务体验:从“千人一面”到“极致个性化”

3. 管理对象:从“物理空间”到“虚实融合”

这些变化对城市智能基础设施将带来四大核心挑战:

1. 算力架构:从“中心化”到“云边端一体化”的实时协同

智能体需要实时处理海量数据并做出毫秒级响应,这要求算力必须下沉。例如,一个城市要处理数万路摄像头,需构建从云端训练到边缘端推理的协同架构。这要求网络具备高吞吐、低时延能力。

2. 数据治理:从“部门孤岛”到“全域融合”的语义理解

智能体要理解复杂城市事件,必须打破部门之间的数据壁垒,实现跨模态数据的融合,让智能体能够即时检索理解历史数据并做出精准决策。

3. 信任体系:从“技术工具”到“权力代理”的伦理对齐

当智能体自主控制交通信号或派遣应急资源时,它已成为实际上的“权力代理”。这带来了尖锐挑战:我们敢不敢用?这要求基础设施内置可解释性、偏见检测机制,并通过数字孪生沙盘先模拟验证再执行。

4. 容错标准:从“体验降级”到“生命攸关”的零故障容忍

对话问答场景出错只是体验问题,但交通指挥或应急调度出错则可能危及生命。这意味着城市核心系统对智能体的容错度极低。

Agentic AI时代智慧城市核心特征是从“连接”与“感知”走向极致的“人智共创”这不仅是一场技术升级,更是一次城市治理理念的深刻变革。未来的城市基础设施,将是一个集算力、数据、知识和伦理于一体的“城市有机生命体”的神经系统。

降低大模型幻觉:自验证与算力成本平衡

最近新加坡国立大学和OpenAI发表了一篇文章,指出幻觉不可避免,幻觉是大语言模型固有的局限性。为了减少AI幻觉,一种方法就是增强模型的逻辑推理能力即让AI做更复杂的推理计算,复杂的推理计算对算力消耗自然也会增加。因此, 如何减少大模型幻觉成为研究热点。

李文正引用丹尼尔·卡内曼(Daniel Kahneman)在其著作《思考,快与慢》(Thinking, Fast and Slow)的双系统理论,指出人脑存在两个思维系统,具有直觉思维“快思考”与理性思维“慢思考”。

受其启发, OpenAI o1, DeepSeek-R1等为代表的推理模型(Large Reasoning Models,LRMs)通过“链式思维”(Chain-of-Thought,CoT)或自我反思机制等技术路径,有效提升了复杂推理任务的解决能力。

Reasoning model(推理模型)能有效减少幻觉,思维链(CoT)是一种引导AI模型进行分步推理的技术,本质是强迫模型从直觉思维“快思考”切换到理性思维“慢思考”。推理时延长思维链能有效提升了对复杂推理任务的解决能力,减少了幻觉。如何让模型“深思熟虑”以减少幻觉,又希望其“思考成本”不要太高昂,这便是研究热点。

如何平衡模型性能与算力成本问题?李文正表示,平衡之道不在于“一刀切”,而在于“动态决策”与“架构创新”。核心思路是:简单任务的请求通过直觉思维,把逻辑复杂问题场景时,切换到理性思维的推理计算单元,并不断优化计算的效率。

具体可以从以下几个层面来理解:

1. 模型设计:从“通用全能”到“专家分工”

混合专家模型(MoE):这种架构本身就是对“平衡”的诠释。它不像一个巨大的单一模型那样,处理任何问题都要激活全部参数,而是将一个任务分解,只让相关的“专家”模块工作。MoE是目前解决模型性能与成本矛盾的主流范式。

2. 推理策略:从“简单堆算力”到“动态优化”

结合直觉思维“快思考”和理性思维“慢思考”的思想。让模型优先调用快速模式,只有遇到逻辑复杂问题场景时,才切换至慢速、高精度的推理模式。

3. 工程优化:从“硬件堆料”到“榨干性能”

在硬件和工程层面进行优化,用”数学补物理”。

总之,从“追求单次完美”到“追求系统最优”,是平衡模型性能与算力成本有效途径。DeepSeek通过架构创新和算法优化的工程化路线是平衡大模型性能与算力成本的杰出代表。

Agentic AI时代算力决定速度,内存决定上限

李文正表示,人工智能大模型本身是一个AI基础设施即AI Infra, Agentic AI时代计算重点正从“浮点运算量”转向“逻辑编排效能”,从"大规模矩阵运算"转向"高频交互式协调计算"计算范式跃迁和结构性变革, CPU已由“通用处理器”转型为Agentic AI时代高频交互式AI推理优化处理器。

AI大模型推理需要与大模型推理相适配处理器,其原因在于AI大模型推理存在两个阶段有着截然不同计算特性和计算需求。在AI大模型推理 Prefill(预填充)阶段,处理输入序列的所有 token类似于训练过程,是计算密集型的,但在Decode(解码)阶段则是自回归(存储密集型),即每一步只生成一个输出 token,当对话达到数万乃至百万token 时,KV-Cache(键值缓存)的爆炸式增长,系统需要从内存中调取海量的历史数据,形成“推理内存墙”,“内存主导型”工作负载,内存决定计算性能的上限。

推理是大模型的工作过程,与大模型训练不同,推理直接面向最终用户,对延迟、吞吐量和成本有着极其严苛的要求。因此, Agentic AI时代对大模型推理计算相适配的算力芯片低时延提出了极致的要求,计算与存储效率成为了衡量系统整体性能的重要因素。

李文正表示,AI发展迈入Agentic AI时代,多智能体协作、长上下文和深层推理链对极致低延迟提出了严苛要求。为了解决“推理内存墙”和与“推理延迟”问题,其中让计算向数据靠近计算单元即近存计算成为关注的热点, Groq推出的 LPU凭借在SRAM片上实现近存计算,消除HBM访存瓶颈,成为 AI大模型推理加速的近存计算AI芯片。

因此,Groq LPU靠极速推理倍受关注。在Agentic AI 元年,英伟达天价收购Groq, 获取Groq LPU推理技术与Rubin GPU通过极致协同设计, 由Rubin GPU负责大规模并行计算的Prefill阶段,而LPU专门负责Decode阶段,以实现低延迟的Token生成,使得GPU+LPU精准适配大模型推理计算需求。这样英伟达凭借大模型训练的长期主导地位,与Groq LPU在推理侧极速推理优势相结合,开启Agentic AI时代将触发计算架构的底层范式转移,从“训练霸主”走向“推理主权”。

他指出, Cerebras Systems公司设计是从根本上解决“内存墙”问题,即计算单元与存储单元之间数据搬运造成的延迟和能耗瓶颈。通过将海量计算核心和高速片上存储(SRAM)集成在一起,极大减少了芯片间通信开销,从而在特定AI推理任务中实现了比传统GPU集群高数十倍的运算速度。

如果Cerebras是将数据移动的距离缩到最短,那么Taalas公司则试图彻底消除数据移动。Taalas专注于开发“模型专用集成电路”(MSIC),通过将大模型直接固化在硬件中实现极致推理性能,其首款产品HC1芯片制造过程中将模型权重直接硬编码到芯片的晶体管电路中。这意味着权重不再是存储在内存中等待加载的数据,而是成为芯片物理结构的一部分,模型变成了专用集成电路(ASIC)模型即芯片。

算力与电力协同优化创新

在算力需求呈指数级增长的背景下,如何应对电力供应的挑战,实现算力与电力可持续发展。李文正表示,全球 AI 大模型技术呈现出快速迭代、规模持续扩大、效率显著提升的发展趋势。

以 OpenAI 的 GPT系列为代表,从 GPT-3 的 1750 亿参数发展到GPT-4的预估 1.7 万亿参数规模,再到 GPT-5 可能达到 3 至 50 万亿参数,模型参数量呈指数级增长。同时, 在Scaling law驱动下,规模至上以及 Scaling law 边界挑战正成为科技巨头竞逐的新高地。

科技巨头大厂持续挑战Scaling Law极限以期望寻求“新涌现”“新奇点”。随着人工智能模型参数规模从千亿级迈向万亿级,大模型海量计算对算力需求正经历爆炸式增长,传统的数据中心无法满足需求,数据中心扩展和电力供应成为关注的焦点。

美国xAI超级计算机Colossus2投入运行,开启全球首个吉瓦级规模的AI训练集群,最近xAI获批部署41台天然气轮机, 发电容量约1.2吉瓦为Colossus 2数据中心供电。

李文正表示,面向人工智能大模型,高性能超级节点及集群是实现大模型scaling laws的最佳方法, 高性能计算集群从千卡、万卡,迈入十万卡大关。meta、微软&OpenAI、xAI等多家AI巨头陆续宣布或者完成10万卡集群。面对10万卡集群, 电力与算力的深度耦合,电力供应成为新的挑战。

OpenAI和英伟达联合发布的一项研究显示,随着AI大模型训练规模急剧扩张至数万GPU集群,其功耗的剧烈波动正对数据中心基础设施构成前所未有的挑战。研究发现,单个训练任务的功率波动可达数十兆瓦级别,这种大规模同步负载变化不仅威胁数据中心供电稳定,更可能对整个电网系统造成潜在风险。

为应对这一挑战,我国推动算力-电力协同,实现算力调度与智能化运营, 发改委等三部门印发《加快构建新型电力系统行动方案(2024—2027年)》,其中,实施一批算力与电力协同项目。同时,他也提出了“算力与电力协同”的解决方案并建议利用AI赋能电力调度优化,算力与电力协同优化创新,依托“东数西算”战略,探索太空数据中心、海底数据中心等新型数据中心基础设施,通过系统优化来积极应对。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。