当前位置: 首页 » 资讯 » 新科技 » 正文

15款大模型透明度测评:两款允许用户撤回数据不投喂AI

IP属地 中国·北京 南方都市报 时间:2025-12-19 10:15:45



15款国产大模型中,仅有DeepSeek主动说明训练数据的大致来源,其他被测大模型仍相当不透明。两款大模型DeekSeek、腾讯元宝提供退出开关,允许用户选择是否将所有数据用于优化体验。

这是南都数字经济治理研究中心实测15款国产大模型的最新发现。

2025年12月18日下午,南方都市报在北京举办第九届啄木鸟数据治理论坛,会上重磅发布4万余字的《生成式AI落地应用:透明度测评与案例分析报告(2025)》(以下简称《报告》)。


2025年15款大模型测评得分情况。

测评发现,15款大模型在AI生成内容标识、生成内容的参考来源或出处方面做得较好,但在某些领域如模型训练数据来源、用户赋权等,还有明显提升空间。

《报告》呼吁持续增强大模型服务的透明度,这对确保技术公平性、避免偏见以及满足法律合规要求,至关重要。

被测大模型中,仅一款披露训练数据的大致来源

缺乏透明度,一直是公众使用包括AI大模型等新技术面临的问题,这使得外部利益相关者(如监管机构、研究人员、新闻媒体、消费者等)难以评估模型的合规性与风险隐忧。

南都数字经济治理研究中心去年底发布的《生成式AI风险感知和信息披露透明度测评报告(2024)》指出,15款AI大模型应用的信息透明度的平均得分为60.2分。各家在训练数据来源、用户数据训练撤回机制、版权归属及其保护措施、生成内容的准确性说明、用户友好设计等方面,仍存在信息披露不足的问题。

针对这些普遍的失分点,今年《报告》进行了回访测评,选取DeepSeek、腾讯元宝、豆包、千问等15款知名国产大模型作为测评对象,重点关注四大维度:数据来源及处理、知识产权保护、内容安全、交互设计,并列出了10个具体测评项,每项得分为5分,满分一共50分。


测评维度。

测评结果显示,仅DeepSeek明确提及训练数据来源。DeepSeek表示,模型预训练阶段主要使用两大类别的数据:(1)互联网上公开可用的信息;(2)我们与第三方合作获取的信息。

对比国外大模型,《报告》发现,Anthropic也会披露从第三方来源获取个人数据来训练旗下大模型Claude,但和DeepSeek一样都没有披露更多信息——比如训练数据的时间范围,与第三方合作的具体情况,是否包含受版权保护的内容,涉及哪些个人信息或敏感数据及其数据处理措施等。

两款大模型提供“退出”开关,赋予用户选择权

为了提升用户使用服务的体验,绝大多数AI大模型应用会要求用户授予一项免费的使用权,以在法律允许的范围内将用户输入输出内容和反馈用于模型训练与优化,但用户是否有权拒绝或撤回相关数据“投喂”AI训练?

《报告》测评发现,各家在该项的得分上表现出明显的梯次差异。从可撤回的数据类型看,被测的15款AI大模型都在隐私政策中提到,用户可更改个人信息授权范围或者注销账号,但同时强调撤回同意或授权的决定,不会影响此前基于用户授权而开展的个人信息处理。

其中,有5款AI大模型应用(可灵AI、智谱清言、百小应、千问、豆包)进一步提及,如果用户不希望输入内容用于模型优化,可发送邮件到指定邮箱通知平台撤销该授权。不过一个现实问题是,有大模型应用提到,因为训练数据通常已被嵌入模型参数,在技术上无法真正无法“擦除”。

千问和豆包两款大模型还允许用户撤回声纹信息,并给出具体路径。它们在相关协议中表示,如果用户不希望输入的语音信息用于模型评测或功能优化,可通过关闭账号设置里的“改进语音服务”来撤回授权。

腾讯元宝、DeepSeek表现更优,提供具体的“退出”开关。两家公司明确如果用户拒绝将数据用于模型训练,可以在产品内通过关闭“数据用于优化体验”来选择退出,关闭后用户的输入和输出内容不会再用于模型训练。


DeepSeek和腾讯元宝在“数据管理”设置里,允许用户选择是否将数据用于优化体验。

在海外,诸如谷歌旗下大模型Gemini同样提供了专门功能设置,允许用户选择是否开启活动记录。一旦关闭,用户今后的对话将不会显示在活动记录中,也不会被用于训练谷歌的AI模型。Gemini甚至允许用户调整“自动删除”数据的期限,3个月或36个月。


Gemini提供关闭活动记录功能。

OpenAI则推出了“隐私门户”(Privacy Portal)的设计,保障用户掌控个人数据的权利。据OpenAI介绍,用户可以在账户设置中直接行使许多隐私权和选择权,包括更正或更新个人信息、访问信息、删除单个或所有对话、删除账户、反对大模型公司使用用户的内容来帮助训练模型等选项。


OpenAI的“隐私门户”设计

《报告》认为,赋予用户更多选择权,是一种友好设计的表现,但目前国产大模型在这方面的进展相对缓慢;为此建议大模型公司强化用户赋权,尊重用户的知情权和选择权,同时可借鉴国外大模型产品的优秀设计,保障用户掌控个人数据的权利。

AI生成内容标识成标配,但普遍缺失“休息提示”

当生成式AI广泛使用,“何为真何为假”的边界变得模糊。今年3月印发的《人工智能生成合成内容标识办法》明确要求,对AI生成内容要打上标记。

落实监管要求,《报告》发现,所有被测大模型应用增加了对AI生成标识的说明,也主动告知模型的局限性,强调不保证AI生成内容的真实性和准确性,仅供用户参考。相较去年,2025年各家在生成内容标识上的行业均分高出1分,涨幅较为明显。


大模型透明度年度测评对比。

具体而言,与2024年测评结果相比,各家大模型在协议层面的规定更加明确和详细,规制对象及手段也更为丰富,实测发现AI生成内容添加显著标识已成为各家标配,这体现出强监管要求下企业的合规选择。

当AI被设计得足够“像人”、足够“理解人”时,长时间频繁与大模型互动,可能导致用户产生强烈的情感依赖。在国内,近期也有媒体报道,广州一名50多岁的保安和AI聊了几个月,AI赞誉他的诗作,称要提供十万签约费、百万分成与之签约,后来才意识到自己被AI愚弄了。在美国,则发生了多起用户沉迷聊天机器人致死案,引发了广泛关注。

这类事件暴露的一个深层问题是,当AI学会了模仿人类的邀约、谈判甚至产生情感共鸣,该如何界定这场人机关系的本质?

《报告》测评发现,为了让用户能区分与AI交互的场景,一些大模型会在交互页面提示:输出内容为AI生成。各家也都强调,无法完全保证输出内容的合法性、真实性、准确性和完整性,并提醒用户注意甄别核实,审慎采信输出内容。

为了确保内容来源可追溯,除两款视频生成应用外,13款在内容生成页面以易于理解的方式披露了参考来源。整体来看,今年披露得比去年更规范和详细,称得上“图文并茂”。

针对未成年人特殊群体,一些国产大模型也推出了专门设计。

作为一款专注AI陪伴的智能体应用,星野在App端特设了未成年人模式。开启该模式,用户每日22点至次日6点将无法使用星野App,星念及相关功能将关闭,且无法搜索、创建、编辑、分享智能体。


星野App未成年人模式

对比国外的大模型产品,《报告》发现,为避免用户过度使用聊天机器人,OpenAI推出聊天休息提醒功能。当用户进行长时间对话时,ChatGPT将弹出提示:“您已连续聊天较长时间,是否需要休息?”,并提供“继续聊天”或“结束对话”的选项选择。


ChatGPT的休息提示弹窗。

但国产大模型在此类核心的问答交互服务中,普遍没有像ChatGPT那样主动提供“长时间使用休息提示”功能。


结合测评结果,《报告》呼吁持续增强大模型的透明度,建议服务提供者应通过负责任的、阶段性的披露来保证其服务的透明度,并承担部分教育、解释责任。具体而言,可以建立线上平台,促进公众与专家的交流,解答关于生成式AI的疑问,提升参与者的理解和认知深度。

出品:南都数字经济治理研究中心

采写:南都N视频记者 李玲 发自北京

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。