当前位置: 首页 » 资讯 » 新科技 » 正文

两会专访|AI生成内容版权归谁?自动驾驶出事谁赔?代表齐秀敏呼吁立法明确规则

IP属地 中国·北京 澎湃新闻 时间:2026-03-10 12:26:17

人工智能作为引领未来的战略性技术,正以前所未有的广度和深度融入经济社会发展各领域全过程,成为推动产业变革、提升治理效能、塑造竞争新优势的核心驱动力。

2026年全国两会期间,全国人大代表、河北齐心律师事务所主任齐秀敏接受澎湃新闻专访时表示,人工智能技术的快速迭代和广泛应用,也伴生着一系列新的法律挑战与治理难题。例如,生成内容的知识产权归属、智能设备侵权责任、算法歧视、数据安全与个人隐私风险凸现等。


全国人大代表、河北齐心律师事务所主任齐秀敏。

齐秀敏建议加强人工智能领域立法。她建议将人工智能立法纳入立法规划,组织跨学科专家团队进行前瞻性研究。聚焦关键领域,推进“小快灵”专项立法与修法。

在知识产权方面,齐秀敏建议加快出台关于人工智能生成内容著作权问题的行政法规或司法解释。在侵权责任方面建议修改民法典侵权责任编,增设专章,明确不同自动化等级智能产品致害的责任构成要件、归责原则、举证责任分配和多元主体的责任分担规则,探索建立强制责任保险制度。在算法治理方面,建议修改就业促进法、商业银行法时加入禁止算法歧视的条款。

在齐秀敏看来,加快人工智能领域立法进程,构建一套既能鼓励创新、又能有效规范、保障安全的法治框架,已成为推动人工智能健康、有序、可持续发展的当务之急,也是推进国家治理体系和治理能力现代化的必然要求。

以下为对话内容:

技术跑得快,规则必须跟上

澎湃新闻:您今年提交了关于加快人工智能领域立法方面的建议。人工智能方面立法的紧迫性来源于哪里?当前存在哪些问题?

齐秀敏:紧迫性主要体现在三个方面。第一,技术发展很快,远超预期。比如去年还在讨论AI替人写诗,今年有些视频就已经真伪难辨了。技术跑得快,规则必须跟上。

第二,实践中出现了纠纷,等待法律给出明确答案。像AI自动生成的图片,版权到底归谁?这些问题目前非常模糊。

第三,老百姓的担忧也在不断增加。比如算法杀熟,不同手机在同一平台购买同样东西价格却不一样;还有孩子刷视频时,算法不断推送不适合的内容。大家会问:这些事到底谁来管?怎么管?我希望把人工智能的规则立起来,让技术创新在法治轨道上也跑得快一点。

澎湃新闻:现行网络安全法、数据安全法、个人信息保护法已覆盖部分AI相关问题。您认为现有法律体系在应对AI挑战时,最大的制度缺口在哪里?必须通过专门立法来解决的是什么?

齐秀敏:这三部法律确实很重要,但它们主要解决的是网络空间的基本规则问题。而人工智能带来的挑战,很多是全新的,不是简单修修补补就能解决的。打个比方,这三部法律就像交通管理中的车辆登记、驾驶员资质和通行规则,但那是针对有人驾驶的。自动驾驶没有驾驶员,很多规则就无法直接适用。

我认为目前的制度缺口主要体现在几个方面:一是AI生成物在法律上到底是什么?是作品吗?权利归谁?现行著作权法没有考虑这个问题。

二是算法决策的责任怎么认定?算法出错,到底谁负责?我们去港口调研,看到全自动化的吊车高效运行,但如果出现操作错误,责任是开发者的、使用者的,还是算法本身的?侵权责任编里没有明确的适用条款。

三是跨部门协同监管的问题。网信、工信、公安、市场监管等部门都有职责,但没有一个上位法来统筹协调,不是修修补补就能解决的。

澎湃新闻:您提出制定人工智能法,这部法律的核心定位是什么?是侧重“促进发展”的产业促进法,还是侧重“规范治理”的风险管理法?两者的权重如何平衡?

齐秀敏:这不是一个“二选一”的问题,不能只讲促进不讲规范,也不能只讲规范不讲发展,应该两手抓。就像开车,不能只踩油门不踩刹车,那样容易出事;也不能只踩刹车不踩油门,那样跑得太慢,所以应该是发展和安全并重。

具体怎么平衡,可以考虑对不同风险的AI进行分级分类管理。比如自动驾驶这种高敏感领域,涉及人身安全,监管就要严一点,安全标准也要高一点;而对于一些普通的生成式AI,监管可以相对宽松一些。当然,这只是一个初步想法,具体怎么分类,还需要进一步探讨。

澎湃新闻:AI治理涉及网信、工信、公安、市监等多个部门。您建议的人工智能法在监管体制上如何设计?是设立新的专门机构,还是建立跨部门的协调机制?

齐秀敏:短时间内设立一个新部门不太现实,成本太高,而且成立之后可能和现有部门职能重叠。我更倾向于在国家层面统筹,由现有部门分工负责,但职责必须明确。具体来说,我个人建议是否可以由网信部门牵头,建立联席会议机制,避免“九龙治水”。

明确法律边界,不会扼杀创新

澎湃新闻:当下利用AI可以实现换脸、视频生成、图片生成和文字创作等,您认为在立法中是否应明确隐私、版权等边界?过于明确的法律界定,是否会与创新有对立?

齐秀敏:应该明确边界,而且明确边界不会扼杀创新,反而会保护创新。有了边界,大家才知道什么能做、什么不能做,创新才敢投入。边界模糊,反而让人不敢投入。

比如AI换脸,我认为应该明确规定,未经他人同意,不得制作、传播他人换脸视频。你可以给自己换,但不能给别人换。立法不能因为技术有可能被滥用就一棒子打死,关键是要管住行为,而不是管住技术。

澎湃新闻:当AI系统造成损害时(如自动驾驶事故、算法歧视、AI医疗误诊),责任主体的认定是最大难点。您建议采用“过错责任”还是“无过错责任”?是否考虑引入“算法过错推定”原则?

齐秀敏:AI造成损害后,责任认定确实是难点。如果按传统过错责任,受害人很难证明对方有过错,因为技术太复杂,普通人看不懂;如果完全采用无过错责任,又可能把企业吓跑,没人敢研究,风险太大。

我建议分类处理:对于高风险领域,可以考虑引入强制责任险,类似交强险,无论有没有过错,先有一个底线保障,既能保护受害人权益,又不会让企业背上无限责任。对于一般风险,可以采用过错推定原则,先推定有过错,由企业证明自己没有过错,这样能减轻受害人举证责任。同时,还应要求全流程留痕,让责任认定有据可查。

澎湃新闻:生成式AI可以给孩子讲故事、回答问题。如果AI输出的内容不违法,但明显不适合儿童,平台的责任边界在哪里?是否应强制设置“儿童模式”的保护机制?

齐秀敏:这个问题我也很关注,因为我既是律师,也是母亲。首先要明确一点,不违法不等于无害。法律是底线,但未成年人保护需要更高标准,对平台的要求更高。

平台应该预见到自己的产品可能被儿童使用,主动采取措施。比如强制设置未成年人模式,对内容进行过滤,对于孩子提问可能暴露隐私的情况,也要有敏感词屏蔽或风险提示。

我建议在立法中明确,面向公众的生成式AI产品,必须提供适龄化的内容过滤功能,让家长放心,让孩子受益。我希望未来的人工智能方面的立法,能既懂技术发展规律,也回应社会关切,让创新者敢闯,让老百姓安心。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。