当前位置: 首页 » 资讯 » 新科技 » 正文

中央经济工作会议首提新兴领域知识产权保护 AI合规时代来临

IP属地 中国·北京 贝壳财经 时间:2025-12-12 20:15:09

12月10日至11日,中央经济工作会议在北京举行。

会议要求,强化企业创新主体地位,完善新兴领域知识产权保护制度。深化拓展“人工智能+”,完善人工智能治理。近5年来,会议首次提出新兴领域知识产权保护,并强调完善人工智能治理。

人工智能安全合规发展再度被推至台前。

“国家科技创新政策从较为强调‘卡脖子’技术突破过渡到制度建设与技术突破两者并重的阶段。”中央财经大学中国互联网经济研究院副院长刘航强调,就新兴领域知识产权保护而言,生成式AI背后的产权界限究竟在哪是政策制定的关键点。“这不是简单地将它管起来,而是要找到激励相容的最优解。让创新者能赚钱、敢于投入,同时又能让技术真正流动起来,赋能千行百业。”

“AI行业将告别无序野蛮生长,从技术驱动创新过渡到合规驱动创新的新阶段。未来AI企业的竞争力不仅在于算法、算力,更在于其合规力。”北京市天元律师事务所合伙人李昀锴认为,本次会议将“人工智能+”的拓展与“人工智能治理”的完善并列提出,表明国家认为安全、合规将成为AI产业可持续发展的核心,将来对AI的监管会更加全面、深入。

科技部新质生产力促进中心研究员丁明磊表示,我国人工智能专利申请量连续多年位居全球首位,但“重创新数量、轻保护运用”的问题突出,且存在算法模型权属界定模糊、AI 生成内容著作权归属争议、数据知识产权保护规则缺失等问题。中央经济工作会议首次将“完善新兴领域知识产权保护制度”与“完善人工智能治理” 纳入科技创新相关表述,既是对我国科技发展阶段特征的精准把握,也是应对全球科技治理挑战、实现高水平科技自立自强的战略布局,具有深刻的时代必然性与现实指导意义。

聚焦AI知识产权风险待解,收益分配机制是关键

近年来,国内外大模型厂商均出现了训练数据涉嫌侵权被诉个案。11月11日,德国慕尼黑第一地区法院一审判决认定,OpenAI未经许可使用受著作权保护的音乐歌词训练ChatGPT模型的行为构成著作权侵权,并判令其承担赔偿责任。本案原告为德国音乐演出和作品复制权协会(GEMA)。

“目前AI企业最大的法律风险来自训练数据的授权问题。未来需要明确,在何种情形下使用公开数据训练模型构成合理使用,以及如何通过授权机制保护数据来源者的权益。”李昀锴认为,可能会探索建立数据要素的知识产权登记与交易制度,让数据像专利一样可确权、可定价。

海外已经开始探索AI数据合规的商业化模式。12月11日,华特迪士尼公司与OpenAI达成合作协议,该协议为期三年。根据该协议,Sora生成视频素材能够使用迪士尼、漫威、皮克斯和《星球大战》的200多个动画角色、面具角色以及各种生物角色,同时还包含相应的服装、道具、交通工具以及具有标志性场景元素。此外,ChatGPT Images还可以利用相同的知识产权,在几秒钟内将用户输入的几个关键词转化为完整图像。

虽然AI训练端的数据合规问题待解,AI输出端的内容已初步在广告、影视等行业商业化落地,这依然对AI知识产权体系提出挑战。

“未来制度需要明确,纯AI生成内容是否受版权保护?如果有人的独创性贡献,权利边界在哪里?这直接关系到文创、游戏、营销等行业的商业模式根基。”李昀锴强调,在AIGC权利归属上,目前司法实践主要依靠个案判例。

刘航认为,激励相容是完善新兴领域知识产权保护制度的核心点,关键是收益分配机制。“大模型训练所需的各模态数据要素都具有不同程度的原创性,这些数据如何获得回报,应该建立程序化、标准化的收益分配机制,从而降低AI企业运营风险及数据授权谈判成本等。”他认为,还可以通过数字水印、区块链等技术手段完善知识产权保护。

除了数据训练合法性问题、AIGC权利归属问题外,李昀锴认为,知识产权制度完善还应关注算法与模型保护问题。“传统的专利保护、商业秘密保护跟不上AI算法的迭代速度,未来可能需要探索一种介于专利公开与商业秘密之间的特殊保护制度,既保护开发者的核心智力成果,又避免技术垄断阻碍创新传播。”

丁明磊认为,未来完善新兴领域知识产权保护,需从法律规则、保护机制、协同体系、国际对接四个维度发力,构建覆盖“创造—运用—保护—管理”全链条的知识产权保护制度。如针对人工智能、生物医药、数据等领域的特殊性,推动专门立法与现有法律修订协同发力,制定《人工智能知识产权保护条例》等。同时,创新保护机制,可以通过建立战略性新兴产业专利快速审查通道、搭建 “新兴领域知识产权侵权监测平台”等方式,降低维权成本与提升保护效率。

强化识别及管理 呼吁建设统一AI内容检测平台

今年人工智能的发展和治理一直备受关注。

“人工智能治理研究并不是为了批判和阻碍人工智能的发展和应用,而是为了给人工智能的发展寻找到一条合乎主流价值观的方向和道路,为人工智能健康发展保驾护航。”中国人民大学吴玉章讲席教授刘永谋表示,人工智能发展大方向应该坚持以人为本、以人民为中心,长期主义规划和敏捷治理要相互结合,“还要坚持AI发展的有限主义,有所为有所不为。”

自9月1日起,AI生成内容已被戴上“紧箍”。根据《人工智能生成合成内容标识办法》(下称:《标识办法》),人工智能生成合成内容需要进行标注,标识包括显式标识和隐式标识。

“《标识办法》解决的是知情权问题,让公众知道这是AI生成的,但要根治乱象,可能要强化源头治理,未来治理应要求模型提供者在技术底层植入不可篡改的隐形水印和安全拦截机制。如果用户试图生成违法违规的AI内容,模型应在生成阶段即触发拒绝响应机制,而不是等内容生成传播后再去删帖。”李昀锴建议,由国家相关部门牵头,联合头部科技企业与科研院所,构建一个统一的AI内容检测平台,增强对AI内容的识别及管理。“目前各家社交平台标准不一,且数据不互通,导致造假内容跨平台流窜。”

刘航同样认为不仅需要要求生成式人工智能企业予以内容标识,也要对内容分发平台加以治理。“生成式AI内容几乎都是从社交媒体平台分发出去的,抓住平台就是抓住七寸,让平台对人工智能内容进行识别成本更低,也更有效。”

“在国家已印发《标识办法》的基础上,需进一步从‘技术监管、伦理规范、行业协同、国际合作’四个层面发力,构建‘全链条、多维度、包容性’的AI治理体系,应对深度伪造、AI低质内容泛滥等乱象。”丁明磊表示。

丁明磊建议,除了完善AI生成内容标识与溯源技术,引导互联网平台、AI 企业建立“AI 内容质量标准”,针对AI 治理的全球性特征,还应主动参与国际合作与规则协调,避免“治理碎片化”,如积极落实《全球人工智能治理倡议》与联合国《全球数字契约》,依托联合国框架下的“国际人工智能科学小组”,推动各国就AI生成内容标识、深度伪造风险防控等达成共识,并针对跨境传播的深度伪造内容、AI 虚假信息,建立“跨国预警+联合处置”机制。

新京报贝壳财经记者 韦英姿 韦博雅 编辑 陈莉 校对 卢茜

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。