当前位置: 首页 » 资讯 » 新科技 » 正文

李飞飞的答案:大模型之后,Agent向何处去?

IP属地 中国·北京 编辑:赵静 划重点KeyPoints 时间:2025-09-04 18:05:08

划重点:

1、李飞飞最新论文,为当下火热的 Agent 划定了边界、确立了范式。谷歌、OpenAI 和微软等巨头的最新布局,几乎都遵循了论文给出的能力栈。

2、论文提出了一套完整的认知闭环架构——从感知、认知、行动,到学习与记忆,构成动态迭代的智能体体系。这不仅是技术的整合,更是对未来 AGI 路径的系统性构想。

3、大模型是驱动 Agent 的核心引擎,但环境交互是解决幻觉和偏见的关键锚点。论文强调,LLM/VLM 提供认知能力,但必须通过真实或模拟环境的反馈来校准现实,减少幻觉,并引入伦理与安全机制。

4、应用潜力横跨游戏、机器人和医疗三大前沿领域——游戏中的沉浸式 NPC、机器人中的自主规划与物理操作、医疗中的智能问诊与健康管理,展现了 Agent 从理论走向实践的清晰路径。

作者 林易

编辑 重点君

2025年,被普遍认为是 Agent 的元年,与之相关的概念从年初至今热度持续走高,包括智能体、AI Agent、Agentic AI 等等。

而就在最近,一篇由李飞飞领衔的 Agent 重磅论文在业内引发了广泛讨论,热度居高不下。网友们如此评价:“几乎是跪着看完的”、“太清晰,硬控了我3个小时”。

这篇长达80页的综述名为《Agent AI: Surveying the Horizons of Multimodal Interaction》,由李飞飞等14位来自斯坦福大学和微软的专家联合撰写。

它之所以备受推崇,是因为这篇综述为 Agent 这一略显混沌的领域,建立了一个清晰的框架:从感知-决策-行动,到记忆、工具使用、环境交互与评测,试图把分散在对话模型、视觉-语言模型、强化学习、工具调用等技术线索,统一到一个多模态 Agent 的新视角里。

并且,虽然这篇论文最早发表于去年年底,但站在当下节点回顾今年 Agent 的发展,谷歌、OpenAI 和微软等主流玩家的核心打法,几乎都是按照论文给出的能力栈来推进的;这也反过来印证了论文对“从大模型到 Agent”这一演进路径的前瞻性判断。

也正如李飞飞在自传《我看见的世界》里强调的,“现在学生太过于追求热点,其实很多老论文是非常经典且具备借鉴意义”;即便这篇综述发表至今不过半年,但其意义之大、影响之深,仍值得每一位 AI 从业者深入品读。

接下来,我们就一起看看这篇纲领性巨作的核心价值。

01

Agent AI 的核心:一个全新的智能体认知架构

要理解这篇论文的精髓,首先必须把握其提出的全新 Agent AI 范式。这远非对现有技术栈的简单拼凑,更是一种对未来通用人工智能(AGI)发展路径的前瞻性思考。

论文中的架构图,便清晰地定义了这个范式的五个核心模块,它们共同构成了一个完整的、可交互的智能体认知闭环。

首先是环境与感知(Environment and Perception),这是智能体与世界交互的起点。

与传统模型被动接收结构化数据不同,Agent AI 主动从物理或虚拟世界中感知信息;这种感知是多模态的,涵盖视觉、听觉、文本、传感器数据等。

更重要的一点是,感知模块内嵌了任务规划与技能观察(Task-Planning and Skill Observation)的能力;这意味着 Agent 在感知环境时,并非茫然地接收一切信息,而是带着明确的目的去理解。

第二个核心模块是认知(Cognition)

如果说感知是输入,那么认知就是处理中枢,是 Agent 的“大脑”。论文将认知定义为一个极其复杂的系统,包含思考、意识、感知、共情等高级智能活动。

这正是大语言模型(LLM)和视觉语言模型(VLM)发挥核心作用的场域。它们为 Agent 提供了强大的世界知识、逻辑推理和上下文理解能力。认知模块负责解释感知到的信息,进行多步推理,并制定出实现目标的策略。

接下来是行动(Action),它承接认知模块的决策,负责生成具体的操作指令。

这些指令可以是与物理世界交互的机器人控制命令(如移动、抓取),也可以是与虚拟世界交互的API调用、代码生成或自然语言回复。行动模块通过控制器(Controller)作用于环境,从而改变环境的状态。

第四个核心模块是学习(Learning)

Agent AI 并非一个静态系统,其核心优势在于持续学习和自我进化的能力。论文强调了多种学习机制,包括预训练(Pretraining)、零样本/少样本学习(Zero-shot/Few-shot)、强化学习(RL)和模仿学习(IL)。

通过与环境的交互(即“Agent Interactive Closed-loop”),Agent 从成功和失败的经验中学习。环境的反馈(Feedback)会回流至学习和记忆模块,用于优化未来的决策。

最后,便是记忆(Memory)。

传统模型的“记忆”通常局限于短暂的上下文窗口,而 Agent AI 的记忆模块则是一个更持久、更结构化的系统。它存储着知识(Knowledge)、逻辑(Logic)、推理路径(Reasoning)和推断(Inference)的结果。

这使得 Agent 能够从过去的经验中提取知识,形成长期记忆,从而在面对新任务时,不必从零开始,而是可以举一反三。

这五个模块共同构成了一个动态的、持续迭代的闭环。Agent 通过感知环境,在认知核心的驱动下做出决策,通过行动改变环境,再从环境的反馈中学习和更新记忆,从而在每一次交互中,都比上一次更智能、更高效。

02

大模型如何驱动 Agent AI?

我们刚才解读的 Agent AI 新范式,可以说是这篇综述蓝图中的一个维度。

Agent AI 的宏大框架之所以在今天成为可能,其根本驱动力,源于大型基础模型(Foundation Models),特别是 LLM 和 VLM 的成熟。它们是 Agent 认知能力的基石,但也带来了新的挑战。

LLMs(如GPT系列)和VLMs(如CLIP、LLaVA)通过在海量数据上的预训练,内化了关于世界的大量常识知识和专业知识。这使得 Agent 在启动之初就具备了强大的零样本规划能力。

例如,当一个机器人 Agent 接收到“帮我热一下午餐”的指令时,它能利用 LLM 的知识,自动将这个模糊指令分解为一系列具体的子任务:“打开冰箱 -> 找到午餐盒 -> 把它放到微波炉里 -> 设置时间 -> 启动微波炉”。

这种能力极大地降低了为每个任务编写复杂规则的成本。

除此之外,论文敏锐地指出了大模型的一个核心问题——「幻觉」,即模型可能生成与事实不符或毫无根据的内容。

这在需要与物理世界精确交互的场景中是致命的。例如,一个机器人 Agent 如果“幻觉”出一个不存在的物体并试图抓取,可能会导致任务失败甚至设备损坏。

Agent AI 范式通过“环境交互”为解决幻觉问题提供了一个关键的「锚点」。因为 Agent 的决策和行动必须在真实或模拟的环境中得到验证。

如果模型生成的计划在环境中不可执行(例如,试图穿过一堵墙),环境会立即提供负反馈。这种持续的、基于物理规律的反馈,会倒逼模型将其内部的知识与外部的现实世界对齐,从而显著减少幻觉的发生。

基础模型同样会继承训练数据中的社会偏见。一个在充满偏见文本上训练的 Agent,其行为和语言也可能带有歧视性。

论文强调,在设计 Agent AI 时,必须将包容性作为一项核心原则。这包括使用更多元化的数据进行训练、建立偏见检测与纠正机制,以及在人机交互中设计符合道德和尊重他人的指导方针。

当 Agent(尤其是在医疗、家居等敏感领域)与用户进行深度交互时,会收集大量个人数据。如何确保这些数据的隐私和安全,是一项重大的伦理和技术挑战。

论文提出,需要为 Agent AI 建立明确的法规和监管框架,确保数据使用的透明度,并给予用户控制其数据的权利。例如,通过提示工程(prompt Engineering)限制模型的行为范围,或者增加一个由人类监督的验证层,都是确保 Agent 在安全可控范围内运行的有效手段。

03

Agent AI 的应用潜力

论文不仅提出了理论框架,还深入探讨了 Agent AI 在三个前沿领域的巨大应用潜力,展示了其如何从理论走向现实。

首先就是游戏(Gaming)场景。

传统的游戏 NPC(非玩家角色)行为由固定的脚本驱动,模式单一、可预测,而 Agent AI 将彻底改变这一现状。

例如,基于 LLM 的 Agent 可以扮演 NPC,拥有自己的记忆、目标和情感。它们能与玩家进行真正有意义的对话,根据玩家的行为和游戏世界的变化动态调整自己的行为,甚至形成复杂的社会关系。斯坦福的“生成式智能体”小镇实验(Generative Agents)正是这一理念的早期探索。

并且,玩家可以用自然语言与游戏世界互动,比如告诉 NPC“我们去森林里寻找草药”,NPC 能够理解并协同行动。这为开放世界游戏带来了前所未有的沉浸感和自由度。

Agent 还可以作为创作者的“AI 副驾驶”,根据简单的指令或草图,自动生成游戏关卡、道具甚至完整的 3D 场景,极大地提高游戏开发效率。

其次是机器人(Robotics)场景。

机器人可以说是 Agent AI 最直接的物理化身(Embodiment),用户只需用日常语言下达指令(如“把桌子收拾干净”),机器人 Agent 就能自主规划并执行一系列复杂的物理操作。

论文展示了使用 GPT-4V 来理解人类视频演示,并将其转化为机器人可执行任务序列的实验,这让机器人编程变得如「教孩子做事」般直观。

在模拟环境中训练机器人成本低、效率高,但如何将学到的技能迁移到物理世界是一个核心挑战。Agent AI 通过领域随机化(Domain Randomization)等技术,在模拟训练中引入足够多的变化(如光照、材质、物理参数的变化),使学到的策略对真实世界的细微差异更具鲁棒性。

机器人 Agent 融合视觉、语言、触觉等多种信息来理解环境。例如,它不仅“看到”一个杯子,还能通过语言指令理解这个杯子是“易碎的”,从而在抓取时采用更轻柔的力度。

最后,在医疗健康(Healthcare)中,Agent AI 同样具备巨大的应用潜力。

Agent 可以作为医疗聊天机器人,初步问诊、收集病史,并基于医学知识库为医生提供诊断建议,特别是在医疗资源匮乏的地区,能极大地提升初级诊疗的覆盖率和效率。

医疗领域的知识更新极快,任何错误都可能危及生命。Agent AI 可以连接权威的、实时更新的医学数据库,在生成诊断建议时,同步进行事实核查和来源引用,这对于抑制模型幻觉、保证信息的准确性至关重要。

Agent 可以帮助处理和分流大量的患者信息,监控慢性病患者的生命体征数据,并及时向医生发出预警,实现更高效的个性化健康管理。

结语

尽管前景广阔,但这篇综述也清醒地认识到,Agent AI 仍处于早期阶段,面临着跨越模态、领域和现实的多重鸿沟。

例如,如何让 Agent 真正实现视觉、语言、听觉、动作等模态的深度融合,而不只是浅层拼接,是未来的核心研究方向。

以及如何训练一个能在游戏、机器人和医疗等截然不同领域都能高效工作的“通用 Agent”,而不是为每个领域定制一个模型,是通往 AGI 的关键一步。

并且在评测与基准方面,如何科学地评测一个 Agent 的智能水平也是关键。为此,论文团队提出了新的评测基准,如用于多智能体协作的“CuisineWorld”和用于视频理解的“VideoAnalytica”。建立标准化的评测体系,对于指引领域发展、衡量技术进步至关重要。

回归原文来看,李飞飞等人的这篇《Agent AI》综述,远不止是对现有研究的简单梳理。它提出了一个统一、完整的 Agent AI 认知框架,阐述了大型基础模型在其中扮演的核心角色,并且系统性地剖析了其在关键应用领域的机遇与挑战。为当前略显喧嚣和碎片化的 Agent 研究领域,提供了一张不可或缺的“地图”。

最后,大家可以一键传送论文原文:

https://arxiv.org/abs/2401.03568

标签: 论文 模型 核心 机器人 环境 游戏 世界 物理 数据 医疗 模块 语言 领域 智能 信息 幻觉 关键 记忆 视觉 任务 范式 技术 能力 医学 大量 指令 现实 李飞飞 患者 规划 结语 场景 传统

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。