新华网北京9月2日电(曹玥)2025年9月1日零时,国家网信办、工业和信息化部、公安部、国家广播电视总局联合制定的《人工智能生成合成内容标识办法》(以下简称《标识办法》)正式生效,“标识办法”提出强制添加显式和隐式标识等规范要求,即用AI生成的每一段文字、每一张图片、每一条音频、视频,都必须强制亮明“数字身份证”。
新华网整理发现,在9月1日前,包括腾讯、抖音、快手、B站在内的多个平台分别针对上述《标识办法》出台了细化规则,其中抖音平台发布公告进一步规范平台上的AI内容创作与传播,并上线了两项功能,一是,内容标识功能,协助创作者为AI内容添加提示标识;二是,AI内容元数据标识读写功能,可识别并写入AI内容的元数据信息,为内容溯源提供技术支撑。
AI生成内容生态链进入规范化管理阶段
人工智能技术正重塑信息生产和传播方式。中国互联网络信息中心(CNNIC)发布的《中国互联网络发展状况统计报告》显示,2024年,我国人工智能产业规模已突破7000亿元,连续多年保持20%以上的增长率。
技术快速普及的同时带来新的内容风险。人工智能技术被用于制造虚假新闻、实施网络诈骗的案例逐年增长。中国信通院发布的《人工智能治理蓝皮书(2024年)》中指出,随着人工智能技术通用泛化的水平提升,内容安全管理将面临着重大挑战。
政策的核心在于双重标识要求。显式标识需让普通用户“一眼可见”,如在AI生成文章的开头或结尾添加文字说明,在音视频内容中加入语音提示或特殊图标。隐式标识则需在文件元数据中嵌入“隐藏信息”,包括内容属性、服务商信息及唯一识别编码。
当前我国人工智能领域正在飞速发展,相应的安全标准和法律准则在不断完善当中,《标识办法》承接了《网络安全法》《数据安全法》《个人信息保护法》构建的基础法律框架,并与2023年8月实施的《生成式人工智能服务管理暂行办法》以及2023年10月发布的《生成式人工智能服务安全基本要求》共同完善了我国内容协同治理的体系。
浙江大学计算机科学与技术学院院长任奎教授是《生成式人工智能服务安全基本要求》的起草参与者之一,他对新华网表示,《标识办法》的正式实施有三个层面上的重大意义:一是,首次将生成服务提供者、内容传播平台、终端用户纳入统一治理框架,以内容的显式标识和隐式标识为抓手,将生成式人工智能服务的各利益方串接在一块。同时也与《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等形成制度递进,明确责任边界。二是,有助于推动AIGC行业的规范化发展,倒逼企业建立合规体系,通过标识这一技术合规前置的制度设计,促使企业将伦理考量融入技术研发全流程;同时通过建立可信的内容标识体系,提高内容使用的透明度,重塑公众对AIGC技术的信任基础。三是,有效的提高了我国在人工智能安全与治理领域的话语权。《标识办法》和《标识方法》是全球首个由政府主导,同时通过技术标准化进行强制性实施的治理模式,为全球内容治理提供了范本。
双重标识体系:显式可感知,隐式嵌元数据
从新规实施最大的特点来看,《标识办法》的核心是构建了“显式+隐式”双重标识体系,对不同类型的AI生成内容提出明确标注要求,确保用户与监管方能够清晰识别内容的AI属性。
在显式标识层面,要求以用户可直接感知的方式标注:文本内容需在开头、结尾或关键位置标注“人工智能生成”或“AI生成”,字体需清晰可辨,不得刻意缩小或模糊。
而隐式标识更侧重于技术层面的追溯,要求在AI生成内容的文件内部嵌入元数据,且字段名称必须包含“AIGC”标识符号。元数据需涵盖AI生成确认状态、生成服务提供方信息、内容传播平台名称、唯一编号,以及数字签名或哈希校验值等关键信息,为内容溯源与责任认定提供技术支撑。
对于文本内容,要求在起始、末尾或中间适当位置添加文字提示或通用符号提示;对音频内容,要求在起始、末尾或中间添加语音提示或音频节奏提示;对视频和图片,则要求在适当位置添加显著提示标识。
任奎教授认为,“嵌入的标识有不同的功能和类型。例如,对于某个生成内容,可以只是简单的标识出它们是自然真实存在的还是由AI模型生成的。此外,标识还可以标记生成这些内容的具体模型。更进一步地说,标识还可以同时标记用户和模型,合成内容标识在功能性上也可以进一步划分,以满足监管的不同要求。”
在明确AI生成内容标识体系的同时,《标识办法》着重落脚在适当地鼓励用AI进行原创性的内容创作。公安部第三研究所副所长金波发文表示,“《标识办法》体现出在数据内容创作与打击滥用间寻求平衡的考量,也表明在立法思路上对当前蓬勃发展的人工智能产业整体上的鼓励倾向,可理解为早期确立的平台避风港原则在新时代背景下的创新性发展。”
明确主体责任边界,但监管仍面临挑战
《标识办法》的另一重意义在于在法律层面上,对不同主体设置了不同义务。服务提供者有义务确保其生成的内容符合标识要求,并在生成内容时主动添加标识。
传播平台需要核验文件元数据中是否含有隐式标识,对于含有隐式标识的,应当采取适当方式在发布内容周边添加显著的提示标识。
应用分发平台则需在应用程序上架或上线审核时,核验服务提供者是否按要求提供生成合成内容标识功能。
《标识办法》的实施对普通人而言,通过显性标识对AIGC进行鉴别可以更加清晰地认识接收到的信息是否可信。但从落地实践来看,《标识办法》并不能彻底地杜绝AI生成谣言、假消息的产生。
例如,对于显性标识,用户可以删除相关文字及标识图形来去除;对于隐性标识,用户也可以通过转码等方式进行一定程度的规避。也就是说,基于标识的识别无法对于恶意用户发布的内容进行精准鉴别。
“AI生成也只是谣言等产生的工具,没有AI的时候也存在同样问题。”中伦文德律师事务所上海办公室高级合伙人王祺律师对新华网表示,AI生成内容应用的风险是无法完全规避,“对于恶意使用者,即使没有AI也可以通过雇佣人来批量产生造谣内容。”
从权、责、利层面来看,王祺还指出,内容发布平台或将承担更多的责任,“从尽量平衡生成式人工智能的收益与风险的角度,除了要求人工智能应用服务提供者尽到更加严格的注意义务外,建议监管使内容发布平台承担更多的责任。”
例如,如果AI生成内容只有在内容发布平台算法的助推下才会吸引更多人的关注,而目前算法难以真正对于非正常流量增长的谣言等进行及时控制。“内容生成平台欲思算法推送流量之利,则也应尽相应的内容监管之义务。这也是权责相适应的价值要求。”王祺对新华网说。
鉴于《标识办法》在落地实践中所面临的挑战,从技术层面,任奎教授建议,大力发展安全保证的内容隐式标识技术。“利用内容隐式标识的鲁棒性与难以去除能力,配合显式标识和元数据隐式标识共同维护基于标识的内容治理体系。”
最后,标识是AI生成内容治理迈出的关键一步,但它只是多层次防控体系的一部分。要真正规避风险,还需要细化法律法规、建立行业自律标准、加大执法力度和国际合作。
“AI生成内容跨国传播时,数据主权归属与执法管辖权争议频发。如何在全球化背景下实现跨境的AIGC执法也是面临的挑战之一。”任奎教授表示,“进一步推动技术标识协同,建立跨境执法互助机制。与‘一带一路’国家、金砖国家联合构建互认标识体系,并推动AI生成内容快速响应机制,支撑跨境执法是未来内容治理的重点方向之一。”