![]()
这项由东南大学计算机科学与工程学院的陈慧怡、彭佳伟、杨旭等研究人员,联合同济大学国豪学院陈凯杰,以及伊利诺伊大学芝加哥分校的闵德海、孙常昌、严岩、程璐等学者共同完成的突破性研究,于2024年11月发表在arXiv预印本平台(编号:arXiv:2511.14159v1)。研究团队首次创建了专门用于评估大型视觉语言模型(类似于能看图说话的AI系统)在面对视觉误导时表现的综合性测试基准。
要理解这项研究的重要性,我们可以把AI模型比作一个正在学习观察世界的学生。过去,研究人员主要关注的是如何通过文字来"误导"这个学生,就像给他一个包含错误信息的题目。然而,在现实世界中,视觉本身就经常带有欺骗性——就像我们有时会把远处的灯光误认为星星,或者在昏暗的光线下把一把椅子看成人影。这种视觉上的"错觉"对AI来说同样是个挑战,但此前却很少有人系统性地研究过这个问题。
研究团队发现,现有的AI模型评估基准主要集中在两个方面:一是检测AI是否会产生"幻觉"(即编造不存在的内容),二是测试它们对恶意攻击的抵抗能力。然而,这些测试都忽略了一个关键问题:当视觉信息本身就容易产生误解时,AI会如何表现。这就像我们一直在测试学生能否正确回答题目,却从未测试过当黑板上的字迹模糊不清时,学生是否还能准确理解内容。
为了填补这一空白,研究团队创建了名为MVI-Bench的测试基准。这个基准就像一套精心设计的"视觉陷阱",专门用来检验AI模型面对容易产生误解的图像时的表现。整个测试包含1248个精心标注的视觉问答实例,每个实例都包含一对图像:一张正常图像和一张包含误导性视觉线索的对应图像。
研究团队还提出了一个新的评估指标,称为MVI-Sensitivity(MVI敏感度)。这个指标就像一个"稳定性测量仪",能够精确衡量当AI从观看正常图像转换到观看误导性图像时,其性能下降的程度。如果把AI的表现比作驾驶员在不同路况下的驾驶水平,那么MVI敏感度就是测量驾驶员在从平坦道路转向崎岖山路时技能下降幅度的指标。
一、视觉误导的分类:从简单到复杂的三级体系
为了系统性地研究视觉误导现象,研究团队基于视觉认知的基本原理,建立了一套三层分级的分类体系。这套分类体系就像图书馆的分类法,将不同类型的视觉误导按照复杂程度分门别类。
第一级是"视觉概念误导",这是最基础的误导类型。当我们在昏暗的街道上把垃圾桶误认为是人影,或者在远处将两栋相似的建筑搞混时,就发生了概念层面的误导。这种误导主要源于物体之间在外观上的相似性,但在语义上却完全不同。研究团队在这个级别下设置了两个子类别:视觉相似性混淆和表现形式混淆。视觉相似性混淆指的是AI可能会将外形相似但本质不同的物体搞混,比如把黄色的海绵误认为是甜甜圈。表现形式混淆则是指AI可能无法区分真实物体和它的二维表现形式,比如把照片中的苹果当作真实的苹果来计数。
第二级是"视觉属性误导",这涉及到对物体细节特征的错误判断。当我们在昏暗灯光下无法准确判断一件衣服的材质,或者在特殊光照条件下误判物体的颜色时,就遇到了属性层面的误导。研究团队在这个级别主要关注材质混淆,即AI可能会基于表面纹理、光泽度或其他物理特征对物体的材质产生错误判断。比如,AI可能会因为金属表面的反光特性而将塑料制品误认为是金属制品。
第三级是"视觉关系误导",这是最复杂的误导类型,涉及对空间关系、遮挡关系和上下文关系的理解错误。这就像解读一幅立体画或者理解视觉魔术中的空间错觉一样复杂。研究团队在这个级别设置了三个子类别。镜像反射混淆考验AI是否能正确区分镜子中的虚像和现实中的实物,就像我们有时会被商店橱窗中的反射影像搞困惑一样。遮挡混淆测试AI在物体被部分遮挡时的识别能力,这类似于在拥挤的人群中识别特定的人或物体。视觉错觉混淆则考验AI面对复杂空间排列、特殊光照条件或误导性视角时的表现,这些情况往往会产生违反直觉的视觉效果。
这套分类体系的巧妙之处在于它涵盖了从低层次的视觉识别到高层次的空间推理的完整光谱。就像学习钢琴时从基本音阶练习到复杂协奏曲演奏的递进过程,这个分类体系能够全面评估AI在不同复杂程度下的视觉理解能力。
二、精心设计的测试基准:1248个视觉"陷阱"
MVI-Bench的构建过程就像制作一部精良的纪录片,需要从多个角度收集素材,进行精心编排,最后呈现出完整而有说服力的内容。研究团队从三个不同来源收集图像,确保测试内容的多样性和真实性。
第一个来源是自然图像,这些图像来自多个国际社交媒体平台。研究团队严格遵守各平台的版权和许可规定,确保所有图像都来自公开可访问的帖子,并且不从明确禁止数据重用或重新分发的来源下载图像。这些自然图像就像日常生活的快照,反映了真实世界中各种可能产生视觉误导的场景。
第二个来源是合成图像,使用先进的生成模型Seedream创建。这些合成图像主要用来补充那些在自然数据中稀少且质量不高的误导性案例。合成图像的使用就像电影制作中使用特效来创造现实中难以捕捉的场景,能够有控制地产生特定类型的视觉误导效果。
第三个来源是编辑图像,由人类专家使用先进的图像编辑工具创建。这些图像通常通过修改自然或合成图像来去除误导性的视觉线索,从而作为正常对照图像。这个过程就像照片修饰师精心调整照片的各个细节,确保每对图像之间的差异恰到好处。
在最终的测试基准中,正常图像主要来自自然图像和编辑图像,而误导性图像则主要源自自然图像和合成图像。具体比例显示,正常图像中23.56%来自自然图像,76.44%来自编辑图像;误导性图像中81.09%来自自然图像,18.91%来自合成图像。这种分布确保了测试基准既贴近真实世界的应用场景,又能系统性地覆盖各种类型的视觉误导。
为了确保测试的质量和有效性,研究团队实施了严格的筛选和优化过程。他们使用两个强大的AI模型——InternVL3-2B和Qwen2.5-VL-3B作为初步评估工具。通过分析这两个模型在初始数据集上的表现,研究团队识别出那些对两个模型来说都过于简单的实例。这些实例就像考试中过于简单的题目,无法有效区分不同学生的能力水平,因此被部分剔除以维持数据集的区分度。这个筛选过程将数据集从最初的1578个实例优化到最终的1248个高质量、具有区分度的实例。
最终的MVI-Bench在六个误导类别中实现了大致平衡的分布,避免了某一类型误导占主导地位的情况。测试基准还展现出广泛的语义覆盖范围,包含食物、家具、自然景观、装饰品等多个类别,确保了评估结果的全面性和代表性。
特别值得注意的是,每对图像都经过精心设计,确保正常图像和误导图像在语义内容上几乎完全一致,仅在是否包含误导性视觉线索方面存在差异。这种设计就像制作对照实验时确保除了研究变量外其他条件都保持一致,能够准确衡量视觉误导对AI性能的具体影响。通过使用CLIP-Large模型提取的特征计算余弦相似度,研究团队验证了配对图像之间确实具有很高的相似性,这为后续的对比分析提供了可靠的基础。
三、评估方法:不只看对错,更看稳定性
在评估AI模型面对视觉误导时的表现时,研究团队不仅关注正确率这个传统指标,还创新性地引入了MVI敏感度这一新指标。这种双重评估方式就像体检时不仅要检查当前的健康状态,还要评估身体对不同环境变化的适应能力。
传统的准确率指标能够直观地反映模型在正常图像和误导图像上的表现水平。当我们说某个AI模型在正常图像上的准确率是80%,在误导图像上的准确率是60%时,我们能够清楚地看到性能的绝对下降幅度。然而,这种绝对数值的比较有时可能会掩盖模型之间真正的鲁棒性差异。
MVI敏感度指标的计算公式是正常图像准确率与误导图像准确率差值的绝对值,再除以正常图像的准确率。这个指标反映的是模型性能的相对下降程度,就像测量一个人在平地和山路上跑步速度的变化比例。如果某个模型的MVI敏感度较低,说明它面对视觉误导时的性能下降相对较小,具有更强的鲁棒性。
这种评估方式的优势在于它能够公平地比较不同基线性能的模型。设想两个AI模型:模型A在正常图像上的准确率是90%,在误导图像上是72%;模型B在正常图像上的准确率是70%,在误导图像上是56%。从绝对数值看,两个模型的性能下降幅度都是18个百分点。但从相对角度看,模型A的MVI敏感度是20%,而模型B的MVI敏感度是20%,说明两者在面对视觉误导时的相对稳定性是一致的。这种标准化的比较方式能够更准确地反映模型的本质鲁棒性特征。
研究团队还采用了配对设计的评估策略,这种设计的精妙之处在于它能够实现严格的控制变量分析。每个评估实例都包含一对几乎完全相同的图像,唯一的区别就是是否包含误导性视觉线索。这种设计就像药物试验中的双盲对照实验,能够准确地分离出视觉误导因素对模型性能的具体影响,避免其他混杂因素的干扰。
此外,为了消除AI模型在多选题中的位置偏好(即倾向于选择特定位置的选项),研究团队在每次查询时都会随机打乱答案选项的顺序。这种做法就像考试时打乱试题顺序以防止作弊,确保评估结果真实反映模型的视觉理解能力,而不是受到选项位置偏好的影响。
四、18个顶级AI模型的全面测试结果
研究团队对18个当前最先进的大型视觉语言模型进行了全面测试,这些模型涵盖了从开源到闭源、从小型到大型的完整光谱。测试结果就像一次大型的视力检查,揭示了当前AI技术在面对视觉误导时的整体状况和具体弱点。
测试结果最令人意外的发现是,即使是最先进的闭源模型也无法完全抵抗视觉误导的影响。以GPT-5-Chat为例,当面对视觉错觉类型的误导时,它的准确率从90%急剧下降到61%,这相当于一个平时成绩优秀的学生在面对特别设计的视觉陷阱题目时出现了明显的困难。另一个例子是Gemini-2.5-Pro,在镜像反射类型的测试中,准确率从86.54%下降到54.81%,显示出即使是顶级AI也难以准确区分真实物体和镜像中的虚像。
所有被测试的闭源模型的整体MVI敏感度都超过了20%,这意味着当它们从观看正常图像转向误导图像时,性能下降幅度至少达到了原有水平的五分之一。特别值得注意的是Claude-3.7-Sonnet的表现,尽管它在数学和编程等推理密集型任务上表现出色,但在视觉误导测试中,它在误导图像上的准确率只有42.13%,MVI敏感度高达42.10%,成为闭源模型中表现最差的。
开源模型的表现更加令人担忧,显示出与闭源模型之间的显著差距。即使是开源模型中表现最好的Qwen2-VL-72B,其MVI敏感度也达到了32.38%,明显高于大多数闭源模型。而Molmo-7B这样的完全开源模型(包括训练数据和训练方法),其MVI敏感度更是高达48.69%,这意味着它近一半的响应都会受到误导性线索的影响。
这种性能差距可能源于多个因素。闭源模型通常能够访问更大规模、更高质量的专有训练数据,并且拥有更充足的计算预算来实施复杂的后训练优化技术。相比之下,开源模型受到资源限制,往往需要在数据质量、模型规模和训练时间之间做出权衡。
在不同类型的视觉误导中,AI模型表现出了明显的能力层次差异。在视觉概念层面,大多数模型都显示出相对较强的鲁棒性。在视觉相似性混淆测试中,大部分模型都能达到或接近50%的准确率,而在表现形式混淆测试中,除了Molmo之外的所有模型都能维持40%以上的准确率。这表明当前的AI模型在处理高层语义区分方面已经具备了一定的能力。
然而,当涉及到更细粒度的视觉属性判断时,模型的表现明显下降。在材质混淆测试中,即使是表现最好的Gemini-2.5-Pro也只能达到66%的准确率,而GPT-4o的准确率更是跌至43%。这说明AI模型在判断物体的材质、纹理、光泽度等细节特征方面还存在显著局限。
最具挑战性的是涉及空间关系理解的测试项目。镜像反射对所有模型都构成了巨大挑战,即使是最强的开源模型Qwen2-VL-72B也只能达到50%的准确率,而GPT-4o的准确率仅为52.88%。更小的模型如InternVL3-2B、Qwen2.5-VL-3B和LLaVA-OneVision-7B的MVI敏感度都超过了70%,显示出在区分真实物体和镜像方面的严重困难。
遮挡混淆测试揭示了另一个重大局限。只有Gemini-2.5-Flash、Gemini-2.5-Pro和GPT-5-Chat能够超过50%的准确率,其他所有模型都表现不佳。这种现象表明,当物体被部分遮挡时,AI模型往往无法有效地利用可见部分来推断整体,这是人类视觉系统的一个基本能力。
视觉错觉测试的结果呈现出一个有趣的现象:不同模型之间的性能差异相对较小。例如,InternVL3系列模型无论规模如何变化(从2B到78B),在误导图像上的准确率都维持在48%到52%之间。研究团队推测这可能是因为多模态预训练数据集中视觉错觉样本相对稀少,导致模型在这方面的学习不充分。这一发现为未来的数据增强策略指明了方向。
五、深入分析:视觉感知是关键瓶颈
为了理解AI模型鲁棒性的根本驱动因素,研究团队进行了一系列深入的分析实验,这些实验就像医生为病人做详细检查以找出病因。通过分别考察视觉感知能力和视觉推理能力的影响,研究团队得出了两个关键发现。
第一个重要发现是,增强视觉感知能力能够显著提升模型对视觉误导的鲁棒性。视觉编码器在大型视觉语言模型中扮演着"眼睛"的角色,它决定了模型能够感知和编码的视觉细节的上限。为了测试这一假设,研究团队采用了标题辅助推理的方法。这种方法就像为视力不佳的人配备放大镜,通过提供丰富的文本描述来补偿视觉编码器的局限性。
具体实验过程是这样进行的:研究团队首先使用一个强大的辅助AI模型为图像生成详细的描述,然后将这个描述与原始图像和问题一起作为输入提供给待测试的模型。这种方法的精妙之处在于它在不修改模型本身的情况下,通过文本形式提供了丰富的视觉信息。
实验结果非常令人鼓舞。当Qwen2.5-VL-7B直接进行推理时,它在误导图像上的准确率只有45.99%。当使用自己生成的标题时,性能几乎没有变化。然而,当使用更强大的GPT-4.1生成的详细描述时,整体准确率显著提升到53.85%,在所有类别中都有改善。更令人印象深刻的是,这个性能水平甚至超过了更大规模的Qwen2.5-VL-32B(47.59%),并接近了Qwen2.5-VL-72B的表现(57.21%)。这就像给一个中等水平的学生提供了优质的参考资料,使其表现达到了高水平学生的程度。
第二个重要发现涉及视觉推理能力的作用,但结果却比预期更加复杂和微妙。研究团队从两个角度考察了推理能力的影响:扩大语言模型规模和启用显式的长链思考过程。
在语言模型规模扩展方面,实验显示了一个非单调的改善模式。当从Qwen2.5-VL-3B扩展到Qwen2.5-VL-72B时,在保持视觉编码器不变的情况下,整体准确率确实有所提升,MVI敏感度也有所降低。这表明更强的推理能力能够部分补偿有限的视觉感知能力。然而,这种改善并不是线性的。在某些中等规模的模型(如从7B到32B)中,在特定类别如表现形式混淆和镜像反射上,性能实际上出现了下降。
更出乎意料的是启用显式长链思考过程的实验结果。这种"思考"模式允许模型在给出最终答案之前进行详细的推理过程,就像学生在解题时写出完整的解题步骤。然而,实验结果显示,开源模型在启用思考模式后,在MVI-Bench上的表现普遍下降。
这种反直觉的结果揭示了多模态推理中的一个重要现象。通过分析具体的失败案例,研究团队发现了两个关键的失败模式。第一个是"视觉遗忘"现象,即随着推理过程的进行,模型越来越多地依赖于自己生成的推理步骤,而逐渐忽视原始的视觉信息。这就像一个人在分析问题时过度依赖理论推导,反而忽视了眼前的实际情况。
第二个失败模式是对细粒度细节的过度关注。在思考模式下,模型往往会过分专注于形状、颜色等细节特征,这种过度关注有时会偏离正确的答案方向。然而,这种特性在某些类别如材质混淆和镜像反射中却是有益的,因为这些任务确实需要仔细检查和分析视觉细节。
与开源模型形成鲜明对比的是,闭源模型如Gemini-2.5-Flash和GPT-5在启用思考过程后表现有所提升。这表明闭源模型经过了更好的训练,能够有效地利用扩展的推理过程而不牺牲感知能力。不过,值得注意的是,即使是经过思考增强的Gemini-2.5-Flash,其性能仍然低于没有思考过程的GPT-5-Chat,这再次强调了视觉感知能力作为基础能力的重要性。
这些发现共同指向一个关键结论:视觉感知能力是抵抗误导视觉输入的根本前提,而推理能力虽然有帮助,但无法完全弥补感知层面的不足。这就像建造房屋时,地基的稳固性决定了整栋建筑的承载能力,后续的装饰和改进虽然有价值,但无法替代坚实地基的作用。
六、意外发现:当AI"歪打正着"
在深入分析实验数据时,研究团队发现了一个既有趣又令人担忧的现象:约有4%的案例中,AI模型在误导图像上给出了正确答案,却在对应的正常图像上出现了错误。这种"歪打正着"的情况就像学生在考试中因为误解题意反而得到了正确答案,揭示了AI学习过程中可能存在的深层问题。
为了理解这种反直觉现象的原因,研究团队采用了注意力引导的掩码方法。这种方法就像使用显微镜观察细胞结构,能够精确地看到AI模型在做决策时关注图像的哪些区域。具体来说,研究团队首先提取模型在生成答案时对不同图像区域的注意力权重,然后识别出注意力最集中的区域,接着将这些区域遮盖掉,最后观察模型的答案是否发生变化。
一个典型的案例很好地说明了这种现象。在测试图像中,桌子上放着两本部分重叠的书和一张收据。问题是"图像中有多少本书?"正确答案应该是2本。然而,AI模型(Qwen2.5-VL-7B)在这个案例中表现出了奇怪的行为模式:它将两本重叠的书误认为是一本,同时错误地将收据识别为另一本书,结果意外地得出了"2本书"这个正确答案。
当研究团队使用掩码技术遮盖收据区域后,模型的答案立即变为"1本书",这证实了模型确实是依赖这个错误的线索来得出答案的。更有趣的是,在对应的正常图像(只有一本书,没有收据)上,这个模型却预测为"2本书",显然是错误的。
这种现象揭示了AI训练中一个根本性的问题。在当前的视觉问答训练体系中,模型只接受最终答案标签的监督,而没有关于推理过程正确性的指导。这种"弱监督"设置就像只告诉学生答案是什么,而不解释为什么是这个答案。在这种情况下,模型倾向于通过寻找捷径来最小化训练损失,它们会利用一些意想不到的视觉特征与标签之间的虚假关联,而不是学习真正的因果关系。
研究团队推测,这种现象在实际应用中可能比基准测试中观察到的更加普遍。现代AI模型通常在极其庞大的数据集上进行训练,这些数据集包含数以百万计甚至数十亿的图像-文本对。即使虚假关联只占很小的比例,由于数据规模巨大,这些虚假模式也可能在模型中积累成系统性偏见。
这个发现对AI评估方法论也提出了重要启示。传统的评估方式主要关注答案的正确性,但忽略了得出答案的推理过程是否合理。这就像判断学生是否真正理解数学概念时,不仅要看最终答案是否正确,还要检查解题过程是否逻辑清晰。研究团队认为,未来的AI评估应该同时考虑答案的正确性和推理过程的合理性,以确保模型的可靠性和可解释性。
这一发现还指出了改进AI训练方法的潜在方向。为了减少虚假关联的影响,未来的训练目标可能需要包含对推理过程的显式指导,或者采用更强的正则化技术来防止模型过度依赖偶然的视觉特征。此外,数据收集和标注过程也需要更加谨慎,确保训练数据中的关联关系是基于真实的因果关系而非偶然的相关性。
七、研究意义与未来方向
这项研究的意义远超出了学术研究的范畴,它为整个AI行业敲响了警钟,提醒我们在追求模型性能提升的同时,不能忽视模型在真实世界复杂场景中的鲁棒性表现。
从实际应用角度来看,这项研究的发现对于AI系统的部署具有重要指导意义。当前,大型视觉语言模型正在被广泛应用于自动驾驶、医疗诊断、安防监控、教育辅助等关键领域。在这些应用中,视觉误导可能导致严重后果。比如,自动驾驶系统可能会因为特殊光照条件下的视觉错觉而误判道路状况;医疗AI可能会因为图像中的反光或阴影而误诊;安防系统可能会因为镜面反射而产生误报。
研究结果表明,即使是最先进的AI模型也容易受到视觉误导的影响,这意味着在部署这些系统时必须格外谨慎。系统设计者需要建立多层防护机制,比如结合多个传感器的信息、引入人工监督环节、设置异常检测机制等,以降低单一视觉误导可能带来的风险。
从技术发展路线来看,这项研究指明了几个重要的改进方向。首先,提升视觉感知能力被证明是增强模型鲁棒性的最有效途径。这意味着未来的研究需要更多关注视觉编码器的设计和优化,开发能够更准确捕捉视觉细节、更好处理光照变化、更有效区分真实与虚假视觉线索的技术。
其次,数据增强策略需要更有针对性。研究发现,模型在某些类型的视觉误导(如视觉错觉)上表现相对一致,可能是因为训练数据中这类样本稀少。因此,系统性地收集和生成各种类型的视觉误导样本,将其加入训练数据中,可能是提升模型鲁棒性的有效方法。
再次,训练方法需要改进。当前的弱监督训练方式容易导致模型学习虚假关联,未来的训练目标应该包含对推理过程的监督,确保模型不仅能给出正确答案,还能基于正确的视觉证据来推理。
从评估体系角度来看,MVI-Bench的成功表明了建立专门针对特定挑战的评估基准的重要性。传统的通用评估基准虽然覆盖面广,但往往无法深入揭示模型在特定类型挑战上的表现。未来可能需要更多类似MVI-Bench这样的专门化基准,系统性地评估AI模型在各种真实世界挑战中的鲁棒性。
这项研究还为AI安全研究开辟了新的方向。视觉误导不仅是技术挑战,也是安全挑战。恶意攻击者可能会利用AI模型对视觉误导的敏感性来进行欺骗攻击。因此,提升模型对视觉误导的鲁棒性也是提升AI系统安全性的重要组成部分。
从更广泛的科学意义来看,这项研究加深了我们对机器视觉与人类视觉差异的理解。虽然AI模型在某些视觉任务上已经达到或超越人类水平,但在处理视觉歧义和误导性线索方面,它们的表现仍然不如人类。人类视觉系统经过数百万年进化形成的鲁棒性机制,仍然是AI系统需要学习和模仿的重要目标。
研究团队也诚实地指出了这项工作的局限性。虽然虚假关联案例在基准测试中只占很小比例,但在真实世界的大规模部署中,其影响可能更加显著。此外,基于配对设计的分析方法虽然能够有效控制变量,但可能不直接适用于其他没有对照设计的数据集。这些局限性为未来的研究提供了改进空间和新的挑战。
说到底,这项研究最重要的价值在于它提醒我们,AI的进步不仅要追求性能的提升,更要关注可靠性和鲁棒性的建设。正如建造桥梁时不仅要考虑它能承载多重的车辆,还要确保它在各种天气条件下都能安全运行一样,AI系统的发展也需要在追求能力边界的同时,筑牢安全可靠的基础。这项研究为这个重要目标提供了宝贵的洞察和实用的工具,有兴趣进一步了解这项工作的读者可以通过arXiv预印本平台搜索编号2511.14159v1查询完整论文。
Q&A
Q1:MVI-Bench是什么?
A:MVI-Bench是由东南大学等机构联合开发的首个专门评估大型视觉语言模型面对误导性视觉输入时鲁棒性的综合测试基准。它包含1248个精心标注的视觉问答实例,每个实例都有一对图像:正常图像和包含误导性视觉线索的对应图像,用于系统性地测试AI模型的视觉理解稳定性。
Q2:为什么现有的AI模型容易被视觉误导?
A:研究发现主要有两个原因:一是视觉感知能力不足,AI模型的"眼睛"(视觉编码器)无法准确捕捉和区分细微的视觉差异;二是训练方式存在问题,模型可能学会了依赖虚假的视觉线索而非真正的因果关系。即使是最先进的GPT-5和Gemini模型,在面对视觉误导时性能也会显著下降。
Q3:如何提升AI模型对视觉误导的抵抗能力?
A:研究发现最有效的方法是增强视觉感知能力,通过提供更详细的视觉信息能显著提升模型性能。此外,改进训练数据(增加视觉误导样本)、优化训练方法(避免学习虚假关联)、以及建立多层防护机制都是重要的改进方向。单纯增加模型规模或推理能力的效果有限。





京公网安备 11011402013531号