当前位置: 首页 » 资讯 » 新科技 » 正文

上交×蚂蚁发布 DiagGym:以世界模型驱动交互式医学诊断智能体

IP属地 中国·北京 机器之心Pro 时间:2025-11-11 18:10:29



临床诊断并非一次性的「快照」,而是一场动态交互、不断「探案」的推理过程。然而,当下的大模型大多基于静态数据训练,难以掌握真实诊疗中充满不确定性的多轮决策轨迹。如何让AI学会「追问」、选择检查,并一步步抽丝剥茧,迈向正确诊断?

来自上海交通大学人工智能学院、上海人工智能实验室、蚂蚁集团与北京大学的联合团队提出了全新的「环境—智能体」训练框架。他们构建了面向医学诊断的世界模型 DiagGym,并在其中训练可自主演进的诊断智能体 DiagAgent。在该框架中,诊断智能体可以在安全可控的虚拟世界中反复探索,通过与虚拟病人的交互反馈持续优化自身的动态决策策略。

研究团队还设计了聚焦诊断推理过程的评测基准 DiagBench。该基准共包含 750 个病例,提供了经医生验证的中间检查推荐和最终诊断结果;其中有 99 个病例,另外由医生手工撰写了 973 条关于诊断过程的详细评估准则。在 DiagBench 上的实验结果显示,该框架下训练得到的诊断智能体在 DiagAgent 多轮诊断流程管理能力方面,显著优于 DeepSeek、Claude-4 等先进模型。

代码、模型、测试数据均已全部开源。



论文标题:Evolving Diagnostic Agents in a Virtual Clinical Environment论文链接:https://arxiv.org/abs/2510.24654代码仓库:https://github.com/MAGIC-AI4Med/DiagGym

问题背景:

从静态问答到动态决策,

AI 诊断需要主动问询

真实的临床诊断是一个复杂的多轮决策过程:医生需要根据不完整的初步信息,提出一系列可能的鉴别诊断,然后主动选取、推荐一系列的检验检查「轨迹」来逐步排除或确认,最终在信息充足时做出诊断。

然而,当前多数医疗 LLM 的训练范式更像是在做「开卷考试」——它们基于静态、完整的病历数据进行指令微调。这种模式忽略了诊断过程中的交互性长期策略性,导致模型难以处理真实诊疗中的三大核心挑战:

主动探索:如何主动选择下一步检查?动态调整:如何根据新的检查结果更新诊断假设?适时收敛:何时应该停止检查并给出最终诊断?

为了攻克这一难题,研究团队提出了一种创新的端到端智能体训练范式:让诊断智能体(DiagAgent)在一个面向医学诊断的世界模型(DiagGym)构成的虚拟临床环境中,自主交互,通过接受环境反馈和最终的强化学习奖励,「摸爬滚打」,学会一套高效、准确的多轮诊断交互策略。



图1. 端到端的诊断智能体训练范式

核心贡献:

虚拟临床环境、诊断智能体

与基于 Rubric 的评测基准

这项工作的核心贡献可以概括为三个环环相扣的部分:

虚拟临床环境:构建医学诊断的世界模型 DiagGym

研究团队基于海量真实电子病历(EHR)训练了一个条件生成模型。这个模型可以根据患者的初始情况和已有的检查记录,实时生成「下一项检查的结果」。它构建了一个低成本、安全、可复现的闭环虚拟临床环境,为智能体的交互式训练提供了完美沙盒。更重要的是,这个环境兼具高保真度与高多样性,能模拟从典型到罕见的各种诊疗路径。

主动问询能力:端到端诊断智能体自主演进 DiagAgent

在上述的虚拟环境中,DiagAgent 通过端到端强化学习进行训练。智能体需要学习在每个决策点做出最优选择——是继续建议检查,还是给出最终诊断,不断同诊断学世界模型进行交互,获得当前病人信息。其目标是学会通过动态决策,主动进行检查推荐,并在信息足够时做出诊断,从而实现高效动态问诊。

诊断过程化评测基准:人工检验诊断轨迹规范性 DiagBench

为了全面评估诊断智能体的能力,团队构建了 DiagBench。它不仅包含 750 个经人工检查的带有参考诊断路径的案例,更创新性地引入了由医生撰写的 973 条诊断过程评估准则(rubrics)。这些准则带有权重,可以细粒度地评估诊断交互过程的合规性与质量,强调「如何达成诊断」的过程,而不仅仅是「诊断结果是否正确」。

实验结果显示,无论是在单步决策场景,还是在端到端多步诊断决策场景,经过强化学习训练的 DiagAgent 均显著优于包括 GPT4o、DeepSeekv3 在内的 10 个代表性大模型,以及两种主流智能体框架。这一结果表明,在交互式环境中进行策略学习,能够赋予模型更强的动态决策与长期诊断管理能力。

技术框架:

训练诊断学世界模型与端到端

交互式诊断智能体强化学习自主演进

第一步:DiagGym,构建可交互的诊断世界模型,打造虚拟临床环境

首先,团队需要一个能模拟真实临床反馈的「沙盒」。他们收集了超过11 万份患者的真实诊疗数据,覆盖近5000 种疾病。这些数据包含了患者基本信息以及按时间排序的检查序列(如化验、影像等)。

利用这些数据,团队训练了一个自回归语言模型。这个模型的核心能力是条件性文本生成:给定患者基本信息和历史检查记录,它能精准预测下一项检查可能出现的结果。这个模型就是 DiagGym,一个能够实时模拟检查反馈的诊断学世界模型。



图2:基于临床序列数据的 DiagGym 自回归语言模型训练范式

第二步:DiagAgent,端到端强化学习驱动,让诊断智能体自主演进

有了「虚拟临床环境」,就可以开始训练「诊断智能体」了。DiagAgent 的训练分为两个阶段:

冷启动(Supervised Fine-Tuning):首先,使用 1000 条从真实病历中抽取的诊断互动轨迹进行监督微调,让模型学会基本的交互格式和临床语言。强化学习(Reinforcement Learning):接着,将智能体放入 DiagGym 中进行多轮实战演练。智能体在环境中自主决策,获得环境反馈,并根据最终的奖励进行策略优化。

奖励函数的设计是关键,它由三部分构成:

诊断正确性:最终诊断是否准确?检查推荐质量:推荐的检查是否关键、有效?(通过 F1 分数衡量)交互轮数惩罚:是否用最少的步骤完成诊断?(鼓励高效)

通过 GRPO 强化学习算法,DiagAgent 逐渐学会了如何在不确定性下进行「主动搜证-评估-收敛」,将诊断从「单轮问答」升级为「轨迹级决策与策略学习」。



图3:采用强化学习驱动的DiagAgent策略演进的训练架构

第三步:DiagBench,手工打造规则驱动新评测基准,评估AI诊断交互能力

在评估诊断性能方面,不仅需要模型能给出正确答案,更要能展示出严谨的诊断思路。但如何衡量这个「思路」呢?传统的自动化指标显然不够。

为此,研究团队打造了一套全新的手工打造规则驱动的评测基准——DiagBench,旨在深入评估AI在多轮诊断交互中的过程质量。具体步骤如下:

医生验证的高质量案例库:基准包含了750 个经过医生团队逐一验证的真实诊断案例,每个案例都附有标准的参考诊断路径和最终结果。手工打造的核心评估准则(Rubrics):研究团队还引入了一套由资深医生手工打造的、基于规则的评估体系。研究团队邀请多位医生,对99 个复杂病例进行深度复盘,将诊断过程中的关键决策点、推理逻辑、以及必须遵守的临床准则,提炼成973 条具体的评估细则(Rubrics)。带权重的精细化打分:在此基础上,医生还为每一条准则都附上权重,以区分其临床重要性。

通过这套体系,DiagBench 对诊断全过程进行细粒度过程审查,全面评估其在信息收集、假设检验、风险控制等维度的综合能力。

实验结果:

虚拟环境与智能体的双重验证

DiagGym:虚拟环境有多真实?

一个可靠的虚拟环境是成功训练智能体的前提。实验证明,DiagGym在多个维度上都表现出色:

高保真度:DiagGym 在逐步生成检查结果时展现出卓越性能。如表 1 所示,在逐步生成检查结果时,其步骤相似度(3.57/5分)和整链一致性(96.9%)均远超 Qwen2.5-72B 等强基线模型。更关键的是,根据医生评测结果(表2),DiagGym 同样大幅领先,其生成的报告获得了 4.49 分的平均相似度和 95.00% 的多数投票一致性,这证明 DiagGym 的结果更连贯,更少出现与病情矛盾的「过度阳性」结果,临床可信度高。高多样性:生成的检查结果分布与真实数据高度对齐。如表1所示,数值型 1-Wasserstein 距离仅 0.128,同时保持了接近真实数据的多样性,有效避免了模型模式崩溃。高效率:DiagGym 的部署和推理成本极低。表 1 数据显示,它仅需单卡 A100即可部署,单次生成仅耗时约 0.52 GPU·s,而同类任务若使用 DeepSeek-v3-671B 则需要至少 16 张GPU和超过 62 GPU·s 的算力。这为大规模、高频次的智能体交互训练提供了可能。



表1:DiagGym 与基线模型的定量评测结果。



表2:DiagGym 与基线模型生成结果的临床专家主观评测结果。

DiagAgent:诊断智能体的「医术」如何?

1、单轮能力评测:决策精准度大幅提升

在单轮能力评测中,如图 4a 所示,我们评估了智能体在给定部分病历、仅需做出下一步决策的能力。结果证明,DiagAgent 在这种单轮决策场景下展现了压倒性优势(结果见图 4c)

检查推荐命中率提升 44.03%,最终诊断准确率提升 9.34%(相较于次优模型)。DiagAgent-7B 的检查推荐命中率高达72.56%,而 MedGemma 和 DeepSeek-v3 等强模型仅为 20%-28%。



图4:DiagAgent在单轮决策场景下的评估框架与性能对比。

2、端到端全程诊断评测:过程与结果双优

在模拟真实诊疗、从头到尾完成诊断的全流程测试中,如图5a 所示,模型需要根据患者信息进行多轮问诊,最终给出诊断。DiagAgent 在这一复杂任务中再次表现最佳:

核心诊断指标全面领先。如图 5b 所示,DiagAgent-14B 平均交互6.66 轮,检查推荐F1分数达到46.59%,最终诊断准确率61.27%,均远超其他模型。相比之下,许多大模型基线(如 DeepSeek-v3)倾向于在 2-4 轮内草草结束,导致检查不充分(Recall 较低),诊断准确性也大打折扣。过程质量获临床准则认可。我们进一步引入医生制定的流程化准则(rubrics)进行评估(如图5c 所示)。在图5d的加权得分对比中,DiagAgent-14B的得分比强基线(如Claude-sonnet-4)高出7-8个百分点。这说明它不仅「诊断对」,而且「过程好」,更好地遵循了关键检查优先、基于证据收敛等临床金标准。



图5:DiagAgent端到端全程诊断评测框架与结果。

消融实验:

训练虚拟环境支撑强化学习

比简单利用现有样本进行SFT更加高效

框架的成功并非偶然。通过一系列消融实验,我们深入探究了DiagAgent 成功的关键因素。我们的消融实验结果如表3所示:

强化学习(RL)显著优于监督微调(SFT):在同等模型规模下,由DiagGym 虚拟环境支撑的强化学习策略,普遍为模型带来10 至 15 个百分点以上的诊断准确率增益。奖励设计是策略优化的核心:同时优化「诊断准确性」和「检查推荐质量」的双重奖励,能让模型在提升最终准确率的同时,大幅改善诊断路径的合理性。强基座模型潜力更大:虽然所有模型都能从RL中获益,但更强的基座模型(如Qwen2.5-14B)能达到更高的性能上限。



表3:消融实验结果

研究价值与未来展望

研究价值

对齐真实临床工作流:它将AI诊断从静态问答升级为动态策略学习,让智能体学会在不确定性下「主动搜证-评估-收敛」,更贴近真实世界。

开创「环境-智能体」闭环训练范式:DiagGym作为一个诊断学世界模型,提供了一个安全、可扩展的诊断智能体「训练场」,让智能体系统能自主探索海量诊疗路径,包括各种非典型的诊断交互轨迹,摆脱了旧有监督学习范式对收集有限、保守的诊断过程数据的依赖。

推动过程化评估:DiagBench首次在诊断交互轨迹上引入了带权重的rubrics来衡量「诊断过程」的质量,推动诊断AI的开发从「唯结果论」转向关注中间决策的合理性。

局限与展望

模型规模:当前实验主要基于7B-14B模型,未来扩展到千亿级模型有望进一步提升策略的深度和推理的上限。

任务范围:目前聚焦于「诊断」,未来可将「治疗方案、预后评估」等环节纳入虚拟环境和奖励函数,构建「诊疗一体化」的超级智能体。

环境扩展:DiagGym未来可以加入更多维度的模拟,如治疗反馈、费用/安全约束等,构建一个更全面的虚拟临床系统。

总结

这项工作通过「虚拟临床环境+端到端强化学习」的范式,成功地将 LLM 从一个静态的「问答引擎」转变为一个能够进行「长期、多轮」诊断管理的「AI医生」。高保真、低成本的世界模型DiagGym为训练提供了沃土,而智能体DiagAgent则在其中学会了动态决策的艺术,在各项评测中全面领先。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。