当前位置: 首页 » 资讯 » 新科技 » 正文

立法“等一等”,AI治理靠“软法”也靠算法

IP属地 中国·北京 文汇报 时间:2026-03-23 21:39:12


“315晚会曝光AI大模型被‘投毒’,AI侵权、滥用……人工智能立法是否迫在眉睫?”

换而言之,当AI技术狂飙,立法是否成为“扎篱笆”的唯一方式?

在长宁区今天(23日)举行的“AI向善·清朗无界”主题日活动上,专家学者抛出一个观点:立法必要性毋庸置疑,但未必非要通过立法推进治理。

试想当下,无论涉AI使用的司法裁判,还是涉AI产业的监管决策,难免涉及一个矛盾——是优先保障权利还是适度容忍、保护新业态发展?

“在法学界,不少观点认为要通过体系性立法,系统性解决这个矛盾。但我的建议是立法者应谨慎考虑制定统一的‘人工智能基本法’,更应通过修订现有涉AI监管的法律,制定弹性配套性法规规章、规范性文件和政策工具来解决具体问题。”上海交通大学凯原法学院教授李学尧认为,立法一旦涉及修改,通常需三至五年,而人工智能技术迭代速度以“月”计,这种不匹配会极大阻碍产业良性发展。

他提出,应鼓励地方法院通过相关案例积累,在数字治理中承担更重要的角色,“一方面,被动化的司法程序相比立法可以更直接、快捷地识别涉AI监管的制度供给需求,真正发现现有法律可能存在的漏洞。同时通过各地对相关案件的不同判决手势,从企业端和社会端的综合反馈倒推出兼顾权利保障与产业发展的治理方式。当然,其中‘试错’代价无可规避,比如企业对特定地方营商环境的不当质疑,甚至可能产生制度套利问题。”

更重要的是“软法”治理。

李学尧解释,在人工智能国际治理中,“软法”治理方式之一是各种大模型企业,自行摸索得出多元化的安全监管治理体系。他以美国加利福尼亚州州长否决监管大模型立法,鼓励企业创新“软法”为例指出:“这种做法值得参考。事实上,中国已有大模型企业探索了类似的安全自我监管制度。我们应进一步鼓励这种创新,企业不能等待被监管,产业的繁荣需要市场的充分参与。”

“企业确实有企业的难处,没有具体指引告知怎么做合规,承担了不少法律风险。但对于一样不断在变化中的事物,政府也无法立刻给出最符合实际的指引。反而企业要发挥主观能动性,加强对这些问题的研究,甚至主动与监管者沟通,提供思路、共议探索空间。”同济大学政治与国际关系学院副院长、教授,上海市人工智能与社会发展研究会副会长鲁传颖认为。

或者说,用技术“打败”技术,本身就是一种破题思路。

企业已有所行动。携程集团副总编辑吴梦楠以旅游行业垂直大模型“问道”为例分享,从用户视角看,内容安全直接影响他们对大模型的信任,在根本上决定了用户是否敢用大模型。“在日常质量管控中,我们深刻感受到,哪怕是极小概率出错的一个事件,也会导致辛苦建立的用户信任受到一定影响。”他说,企业为大模型打造了一个防护体系,实现被动防御向主动干预的转变。

政府也正探索用AI监管AI。

眼下,直播带货内容难以靠传统的人盯式监管实现全覆盖。长宁区市场监督管理局网监科负责人分享,该区探索了直播带货智慧监管系统,将纷繁的直播内容整理成看得懂、查得快、能落地的“数据货架”。

比如,某品牌在直播带货过程中提到“匀亮肌肤,改善眼周的暗沉感,唤亮肌肤黑色素”。该直播片段会被捕捉并输入AI大模型。此化妆品的备案功效与直播宣传的功效进行比对后,会输出“疑似普通化妆品宣传特殊化妆品的功效”的结论,并由人工复核。

“每条复核数据都会反哺AI大模型进行学习。AI大模型通过不断的学习和迭代更新,对违法行为的识别准确率已从系统刚上线时的40%提升至72%。”该负责人说。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。