当前位置: 首页 » 资讯 » 新科技 » 正文

当AI有了“数字身份证”

IP属地 中国·北京 编辑:苏婉清 经济观察报 时间:2025-09-02 10:12:12


当“万物皆可溯”,一个更好的网络世界已经预见。

9月1日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布的《人工智能生成合成内容标识办法》(以下简称《办法》)正式施行。这部“AI内容治理里程碑”的法规,以“显式+隐式”双标识体系为核心,直击AI生成内容“真假难辨”的核心痛点,构建起覆盖生成、传播、追溯全链条的监管框架。

《办法》提出的“显式标识”与“隐式标识”并行机制,给AI作品上了两把锁。显式标识要求在文本起始处添加文字提示、在图片角落嵌入角标、在视频播放界面设置动态水印,确保用户肉眼可见;隐式标识则通过文件元数据植入数字水印、服务商编码等技术手段,实现机器可读、不可篡改。这种“明暗结合”的标识方式,既保障了公众知情权,又为执法部门提供了追踪溯源的技术抓手。

以近期引发热议的“AI图片诈骗电商退款”事件为例,不法分子利用20秒生成的虚假商品破损图,成功骗取75%的退款申请。《办法》施行后,未来,电商平台可通过核验文件元数据中的隐式标识,快速识别AI生成内容,阻断诈骗链条。《办法》中的重点内容之一是:明确平台责任,阻断虚假信息传播链。这无疑对网络信息服务提供者提出了更高层次的审核要求。

传统媒体时代,大众传播媒体掌握甚至垄断着信息的把关权。互联网时代,媒体的把关权不断被分化,“人人都是传播者”一定程度上实现了信息传播的平权化,但也由此加剧了信息真伪难辨的问题。

基于此,《办法》的实施将构建起从“生成端”到“传播端”的闭环治理,形成覆盖AI内容全生命周期的监管网络。从生成端看,《办法》明确要求在内容生成时即添加标识,确保内容可追溯;对传播端加强审核,如平台需对未标识内容添加风险提示。这种闭环治理模式,有效解决了“AI内容泛滥却无法追责”的困境。

《办法》在强化监管的同时,也充分考量技术发展需求以及创作自由。针对部分原创内容被误判为AI生成的问题,《办法》引入分级处理制度:对通过隐式标识确认的AI生成内容,平台需采取更严格措施,如下架或限制传播。同时给予疑似内容复核的机会:对标识为“疑似生成”的内容,平台需提供便捷的用户反馈渠道,允许创作者提交证据申请复核。既避免误判打击创作积极性,又为平台提供灵活管理空间。

尽管《办法》的实施在人工智能生成领域迈出了关键一步,但互联网AI治理仍面临诸多挑战。尤其在艺术创作、新闻报道等领域,难免出现伦理边界模糊等问题,AI生成内容的合理使用边界也亟待明确。但必须肯定的是,《办法》的施行正在重塑AI产业竞争格局,也在为传统产业赋能。

如在医疗领域,AI生成的影像报告需添加显式标识,既保障患者知情权,又为远程诊疗提供合规依据;在教育领域,智能批改系统通过标识体系区分人机协作成果,维护学术诚信。于企业而言,强制标识要求倒逼企业优化训练数据管理。

当每一张AI图片、每一段AI视频都带有清晰的“数字身份证”,当每一次内容传播都留下可追溯的技术轨迹,我们不仅在守护信息时代的真实与安全,更在为人工智能的可持续发展奠定基石,而这一切,都在动态向好中。

(经济观察网 万佳/文)

免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。