![]()
10月25日下午,清华大学新闻与传播学院全球发展与健康传播研究中心(以下简称“中心”)2025年第三期媒体工作坊——“AI时代如何分辨与核实虚假信息”在清华大学清绿零碳空间顺利落幕。本次工作坊由清华大学新闻与传播学院与澎湃新闻联合主办,中心与澎湃新闻·明查工作室承办,清华大学总务长办公室/绿色大学办公室协办,邀请到了中央广播电视总台CGTN、世界卫生组织西太平洋区办事处、腾讯朱雀实验室,以及主办方清华大学新闻与传播学院、澎湃新闻的五位嘉宾,与现场近80位观众一起,共同探讨在AI驱动的信息环境中,如何有效地进行事实核查(Fact-Checking)、虚假信息溯源(Source Tracing)以及平台算法治理。
工作坊由清华大学新闻学院与人文学院双聘副教授、全球发展与健康传播研究中心秘书长苏婧主持。澎湃新闻明查工作室编辑郑淑婧首先以“脑腐时代的事实核查”为题,分享了明查工作室在事实核查方面的经验及看法。郑淑婧认为,随着人工智能的飞速发展和社交平台用户的激增,人们正步入一个虚假信息爆发的“脑腐时代”,AI造假已成为人类短期内面临的头号风险之一。她进一步提到,AI驱动的虚假信息主要分为三类:大型语言模型编造的“AI幻觉”、AI图像和深度伪造视频,“这些AI内容正迅速削弱公众分辨真伪的能力,进入‘AI超现实主义’阶段”。
面对挑战,明查工作室分享了事实核查的四大“干货”方法:一是溯源,通过追溯原图原视频来获取场外信息,例如发布频道是否为AI生成专页、图像是否有Sora等AI模型的水印标记等;二是观察,从细节入手,辨别图像中的畸形手指、过于完美的皮肤和发丝,或视频中不符合物理规律的现象;三是硬核手段,包括关键帧反搜、地理定位,以及更专业的假脸检测和纹理对比等实验室技术;四是以“魔法打败魔法”,利用第三方工具和现有的主流大模型,如ChatGPT、Claude作为辅助工具进行核查。郑淑婧强调,虽然AI核查能力在增强,“但目前没有一款工具是完美的,最终仍需专业判断”。
随后,CGTN事实核查项目负责人彭芃从国际传播视角,深入分析了海外事实核查领域的探索与挑战。彭芃指出,根据研究报告显示,海外超过半数的受众认为自己无法有效辨别虚假信息,而政客和网红的言论被认为风险最高,传统新闻媒体的风险较低,而强社交属性的平台如Facebook和TikTok在传播方面加剧了虚假信息导致的威胁。
彭芃还分享了国际社会在治理层面的最新动态:平台方面,meta(Facebook)已将内容治理模式从第三方核查转向类似X(Twitter)的社区笔记模式;立法层面,中国、美国以及欧盟针对AI技术推出不同的监管举措;而在技术应对上,CGTN新媒体开发了内部工具,基于海外社交平台热榜和搜索趋势,运用AI多模态检测技术,来赋能事实核查工作,并积极探索与海内外科技公司、高校顶尖实验室等机构的合作。在分享最后,彭芃以清华大学新闻与传播学院院长周庆安教授的一句话作为总结,呼吁在众声喧哗的AI时代,新闻传播者应建立并坚守新闻真实性这一最核心的理想信念。
世界卫生组织西太区风险沟通技术官张文雅菁,从全球公共卫生的角度切入,指出AI正在将信息疫情转变为一场“信任危机”。她以多个案例说明AI对公众健康决策的直接威胁,并强调,虚假信息传播速度远超科学澄清,“一条深度伪造视频可在10分钟内病毒式传播,而卫生部门回应却需2-3天”。
在此背景下,张文雅菁介绍世卫组织的应对策略是“快、建、稳”,并在此基础上正与清华大学新闻与传播学院合作开发行为研究与情报指导应急(BRIDGE)方法中的相关工具,强调“以人为本”构建信任:BRIDGE是一种在突发事件中,为各国政府提供“行为洞察工具”和协作网络支持的方法,以确保应急响应工作及时、基于证据,并以社区为中心。在分享最后,张文雅菁也希望在未来继续与清华大学一起通过合作提升区域内的应急准备工作,并通过技术来帮助区域内各国倾听来自大众的声音。
腾讯朱雀实验室高级研究员唐梦云就“AI生成检测领域的技术实践”进行了深度分享。她指出,AI内容生成技术正经历指数级迭代,从早期的风格化迁移到如今逼真的深度伪造视频,AI生成内容的真实度已远超人眼辨识极限,这给AI生成检测领域带来了前所未有的技术挑战。唐梦云介绍了朱雀实验室在应对这一挑战上的核心技术路线,强调其工作的目标是提升检测的泛化性、实时性和鲁棒性(robustness,即结构和功能的稳定性),为AI技术的应用加上“安全阀”。
她详细阐述了技术实践的几个重要方向:一是AI生成痕迹检测,主要通过分析AI模型在生成过程中留下的微小数字痕迹,例如特定频率的伪影、纹理失真或不自然的光影投射等,这需要借助高度复杂的深度学习模型来捕获。二是内容溯源与数字水印技术,“AI生成技术及应用的提供方应该从内容生成源头即打上不可篡改的标识,为后续的事实核查提供确凿的追溯链条”。三是跨模态内容的一致性校验,针对深度伪造视频中常出现的音画不同步、唇形与发音不匹配等问题,实验室开发了多模态算法进行比对校验。“这些高精尖的检测能力已被主流媒体的事实核查项目所采用和集成,极大地提高了媒体在处理海量和高仿真虚假信息时的效率和准确率。” 唐梦云强调,“技术与媒体的深度合作,是打赢这场‘信息战’的关键基础”。
清华大学新闻与传播学院院长助理陈梁副教授最后则从传播学和行为科学的角度,以“当风险变成信念:谁在驱动事实查证行为?”为题展开学术讨论与剖析。陈梁指出,在社交媒体时代,公众不仅是信息的接收者,也是信息的创造者和传播者,更可以是事实核查的主体,“只有当公众形成一个主动核查的习惯,社会才能有一个更好的自我净化、持续防御的能力”。
陈梁所分享的他的研究也挑战了传统观念——即仅靠感知到虚假信息的威胁(风险感知)就能有效驱动公众采取核查行动。但基于第三人效果理论的探索却进一步发现:虽然意识到虚假信息威胁能提高核查重要性的认知,但风险感知并不能显著预测事实核查行为。更重要的是,研究发现核查行为本身作为一种社会参与,能够反过来持续增强公众对虚假信息社会危害的认知。因此陈梁提出,为有效激发公众的核查动机,应从“威胁驱动”转向“参与驱动”。最后,陈老师呼吁媒体机构应“从信息裁判的角色转向公众赋能的角色”,使技术和平台真正被公众所使用,“事实核查真正的动力其实不在于让人去害怕错误的信息,而在于让更多的人去相信我能做、我该做、我愿做、我做有意义。”陈梁总结道。
随后,工作坊嘉宾与现场近80位观众一起,就若干具有代表性的全球发展与健康领域的虚假信息与议题展开头脑风暴,分析溯源链条并找出共性问题。在活动最后,主持人苏婧副教授指出,在教学实践中,AI已对写作教育构成巨大挑战,这也凸显了反AI造假侦查技术和全民媒介素养普及的极端重要性,“尽管媒体和机构正通过技术赋能进行不懈努力,但AI造假的成本似乎仍低于核查成本,这是一个所有参与者共同面临的严峻挑战”。
![]()





京公网安备 11011402013531号