![]()
![]()
人工智能的迅猛发展不断拓展其应用边界,也诱发了技术不可控、数据不可信、社会负效应等风险,带来了伦理、安全、治理等多维度挑战,为应对生成式人工智能引发的伦理道德、知识产权保护、网络犯罪和数据安全等一系列风险的新型治理命题持续涌现。面对技术齿轮与制度框架的相互啮合,检察机关在数字时代纠纷动态的前沿演变中需积极探索人工智能的司法应对,充分发挥检察职能,以法治方式主动参与人工智能治理,推动实现发展与安全并重、促进创新与依法治理相结合,为人工智能安全治理提供法治保障。
![]()
引言
人工智能,作为新一轮的科技革命和产业变革的重要驱动力量,正在深刻地改变生产生活的方式。以chatgpt为典型代表的生成式人工智能,依托其卓越的语言解析、深度认知与内容创造能力,降低了技术门槛,推动人工智能技术范式日益趋近通用智能,且使得人工智能的简单机械工具价值属性转向感知、分析、创作创造。它已演化为深刻重塑经济社会的新型生产工具与创新引擎,显著拉近了通用人工智能与现实的距离,使人类文明加速逼近技术奇点。
然而,生成式人工智能所展现的广泛适用性、强大迁移能力以及不可预知的表现特性,也决定了其伴随的技术、伦理、安全、法律等多重风险,引发了社会对其产品与服务的高度关切,学界对此已有广泛讨论。按风险侵害对象划分,其潜在威胁可归纳为个体层面、社会层面乃至国家层面的危害。特别是在人工智能2.0阶段,相关风险呈现出损害形式更隐蔽、波及范围更广、后果更严重、责任界定更模糊的特征,不仅冲击人类的认知模式与能力,也对现有法律体系和治理秩序构成严峻考验。更甚者,生成式人工智能风险本身的复杂多样性与高度不确定性,使得依赖传统理念、模式和规则的治理体系面临失效风险,治理困境日益凸显。
党的二十届三中全会决定作出部署,要推动制造业高端化、智能化、绿色化发展,支持企业用数字技术改造提升传统产业。对“完善生成式人工智能发展和管理机制”“加强网络安全体制建设,建立人工智能安全监管制度”等工作提出了明确部署要求。中央经济工作会议明确提出要开展人工智能+的行动,当前以大模型为代表的人工智能前沿技术加速演进,成为发展新的生产力的重要引擎,为制造业等行业的创新变革注入了新的动能。
目前,人工智能在我国已经形成了以京津冀、长三角、珠三角为主的三大产业聚集区,其中北京具有高端科技创新、高精尖产业落地、创新发展高地的区位特点;深圳形成了头部企业引领的“雁阵式”梯队,以万亿级gdp基地和三大省级产业园生态密度协同赋能“ai+百业”的场景应用闭环;杭州以“产学研融合”驱动人工智能发展,在生成式ai、脑机接口等细分赛道涌现“杭州六小龙”;上海具有“全球最大人工智能孵化器”的人工智能生态优势,为入驻“模速空间”企业提供算力调度、开发数据、金融服务、综合服务、人才服务的“保姆式”服务。以2020年入选全国首批四个人工智能战略性新兴产业集群——北京、上海、深圳、合肥所对应的检察机关履职看,聚焦知识产权保护、数据安全治理、数字检察建设等方面,在案、治、策方面均各有侧重、各有特色。如,北京海淀区院探索“检察官+法务”一对一问需问效模式,推出集企业问诊、普法定制、线索举报等功能的“检启智远”微信小程序,推广电子数据技术审查和ai办案辅助工具。杭州余杭区院精准划定网络检察综合履职专门管辖范围,组建浙江省首个互联网检察部,利用多模态大模型构建跨场景检察智能应用平台,聚焦人工智能等新质生产力服务保障,建立涉高水平创新企业案件院领导领办、快速响应和精品化办案三项机制。深圳南山区院在人工智能产业集聚地成立工作站,搭建“企业家会客厅”,院领导、检察官挂点联系,建立企业法治体检、风险提示、标准指引三套数字化系统应用,便利企业“自我诊断”,防患于未然。
面对新形势新问题,检察机关如何对标服务大局中心工作,以高质效检察履职参与人工智能治理,推动实现人工智能产业发展与安全并重、促进创新和依法治理相结合,为经济社会发展营造更优法治环境,需从精准打击、协同治理、规则之治、人才培养的角度深耕发力,全面护航人工智能产业全生命周期的健康合法安全发展。
一、人工智能引发的法律规范风险
(一)
人工智能时代对司法挑战
1.人工智能伦理风险
生成式人工智能的兴起,对现行人工智能伦理规范框架构成了更深层次的冲击,催生了包括伦理失范和认知异化在内的多种亟待重视的新型风险。以chatgpt为例的生成式人工智能的广泛应用,真正降低了人们广泛使用、利用人工智能的专业技术门槛及成本,致使算法对人类互动、行为和决策的影响程度日益加深。
在司法实务中已出现不法分子为规避明面化的前台操作,往往会在软件后台运用隐蔽的技术手法实现犯罪目的,如通过在软件后台预设“角色扮演”“情景模拟”等诱导性提示词或直接通过编写系统提示词的方式,以达到让软件接入大语言模型后输出的内容突破道德限制的目的,并通过反复训练、调试实现向用户连贯输出淫秽内容。
2.新型知识产权保护
人工智能产业高度依赖核心算法、模型架构等商业秘密,一旦发生泄露,竞争对手可零成本复现技术路径,致原创企业前期巨额研发投入流失,丧失市场领先优势,特别是在当前开源模型广泛应用背景下,对企业如何防范反向工程等泄露风险提出更高调整。在司法实务中发现,由于生成过程的黑箱特性及现有技术手段难以证实的实质性联系导致无法回溯商业秘密点原始来源。目前,通过申请计算机软件著作权的路径保护算法,存在难以保护源代码中关键决策思路、决策方法的缺陷。比如,权利方的秘点文件本身不断升级,如果侵权人在形成最终版本的秘点文件后进行了二次拷贝,且取得较早形成的秘点文件,会致使权利人提供的秘点载体文件的最后修改时间晚于侵权产品中解密文件的修改时间,在无其他证据予以证实侵权行为的情况下,将很难认定侵权行为的成立。此外,受限于目前的鉴定技术,很多权利人主张的秘点技术信息具有非公知性的证据不足。例如涉及图像识别算法模型设计的参数的选取、数据的流向以及模块的命名,这些都是根据数据训练后选择的,因而不同类型模块中的参数设计及所在位置具有唯一性,模块背后的内容类似于积木,一般系开源代码,没有展示必要,但对于模块结构、取值过程等内在设计和调整思路难以实现客观说明,因而基于局部算法模块的对比很难界定整体模型的唯一性和特殊性,尚不足以证实该类秘点属于“不为公众所知悉的技术信息”。
此外,生成式人工智能产出的文字、图像等多形态内容,其逼真度已令其与人类作品难以分辨,进而催生了密集的司法纠纷与法理讨论。司法实务中发现,目前对人工智能生成作品唯一性价值、知识产权归属认定等存在法理争议,可能影响相关犯罪打击。如s市j区院2024年存疑不捕的一起诈骗案。该案嫌疑人系某公司实际控制人,开发网上伽作meta平台,指使客服对外宣传出售“数字藏品”,其中部分藏品系嫌疑人等人通过生成式人工智能制作。检察机关审查认为,现有证据无法证明ai制图的唯一性和嫌疑人版权所有人,认定为“数字藏品”存疑,因此作出不批捕决定,要求公安机关补充侦查。
3.网络犯罪与数据安全
生成式人工智能冲击了网络安全治理格局,突出表现为内容监管难度剧增。网络信息治理的核心在于规范内容创作者、平台方、用户及行业组织的行为。但该技术大幅降低了内容生成成本,使责任溯源困难、真伪甄别受阻,极大弱化了治理效力。目前,通过向生成式人工智能简单喂料、指定关键词等洗稿、产出的案件发案量涨幅明显,且相关犯罪呈现人工智能参与度趋深、“创作”水平趋高、犯罪职业化、组织性趋强等特点,批量“智能”造谣极易误导公众舆论,污染网络环境。比如,s市b区院2024年起诉的一起非法经营案,三名涉案人员购买app会员服务,以符合今日头条、微头条规则和发布标准为要求,以清明节、民生等为关键词,利用app内置ai、数据库等,生成骨灰房等虚假配图文章,并在今日头条等平台发布,展现量13万余人次、点击量6千余人次。该团伙在半年内通过ai造谣近900余条,赚取平台流量奖励佣金共计5万元。更值得警惕的是,其可能生成蕴含带有偏见或极端立场内容,对国家安全构成重大隐患。
在数据安全领域,生成式人工智能的威胁主要聚焦于信息泄露与跨境数据流动风险。以chatgpt为例,其在训练及人机交互过程中接触海量数据资源。一旦发生数据外泄,尤其是敏感个人信息遭泄露,将直接危及数据主体的身份权、财产权等核心权益。比如,很多不法分子直接使用或简单修改现成内嵌生成式人工智能的应用软件参数,对照片、视频等进行换头换脸、动态化等“深度伪造”处理,冒用他人身份通过网站平台系统身份查验、资质审核等非法获利,或恶搞知名人士哗众取宠。此外,大部分人工智能企业的模型,尤其是通用模型的训练数据来自多种渠道,其来源难以追溯,是否合法也难以确定,因此还会出现数据不准确、不完整或不当使用等情形,轻则导致模型性能低下而产生错误结果,重则产生算法歧视,甚至伦理偏差。就跨境数据安全而言,虽然数据要素已成为第五大生产要素,其不受限制地自由流动更利于全球数字经济的发展,但这把双刃剑也带来了对国家安全、个人信息权益保护等方面的风险与挑战。在全球数字经济竞争进入规则重构窗口期的关键阶段,数据跨境规则作为支撑国际合作与博弈的核心制度框架,其多样化的演进形态—从多边协定到国内长臂管辖立法,从区域性联盟标准到防御性单边措施,已深度牵动各国数据主权边界的划定、经济安全防线的构筑以及跨司法实践的走向。然而,我国面对的全球数据规则“碎片化博弈”与“阵营化割据”形势严峻,且在对个人信息等重要数据、敏感数据跨境流动治理未形成全生命周期的监管体系。目前,我国现存的三种监管方式(安全评估、标准合同、保护认证)均是从事前层面对数据出境进行限制,缺乏对事中及事后风险管控及追责。然而数据跨境流动是一项持续性的活动,数据泄露、隐私侵权等法律风险更有可能发生在数据传输过程中及事后产品开发赋值过程中。
(二)
治理范式的挑战
从治理理念维度来看,生成式人工智能催生了基础价值取向的抉择困境:治理框架应以激励技术突破为优先导向,抑或将风险预防作为核心关切?
从治理模式维度来看,传统人工智能阶段应对算法失控与数据安全等数字风险时,主要依赖反应式治理(事后监管)与集权式治理两种范式。前者体现监管机构基于技术包容原则对已发风险的被动响应;后者旨在解决监管碎片化问题,由国家部门实施行业统合监管。面对生成式人工智能技术的快速演进与风险倍增态势,亟需建立前瞻性治理机制——通过主动预防策略推动治理重心由单纯鼓励创新转向风险协同管控。同时,鉴于风险涉及多元主体,须突破政府主导的传统路径,构建跨部门协同乃至国际协作的数据治理网络,实现风险应对的系统化转型。这要求治理范式实现三重跃迁:行为监管进阶为全流程监管,对象范畴从实体规制扩展至数据、算法与算力三维治理。
从治理规则维度来看,传统分散立法模式在生成式人工智能治理中出现结构性失灵,现有规则面临适应性危机而亟待体系重构。典型如个人信息处理的核心准则——目的限定原则与知情授权机制,因缺乏统一标准导致企业通过场景转换规避约束。这种制度脱嵌现象表明,生成式人工智能引发的规制挑战已远超传统法律框架的承载能力,迫切要求启动风险规制的范式革命。
从整体治理困境来看,当前全球生成式ai治理仍处试错阶段,传统治理体系存在三重短板:一是在主体层面,过度倚重政府多头监管,虽可发挥专业优势应对跨领域风险,却引发权责模糊、推诿掣肘等效能损耗;二是工具层面,片面追求监管效率而沿袭行政管控手段,忽视企业自律、行业标准、公众监督、专家评议与司法审查的协同价值,尚未形成立体化治理矩阵;三是在规范层面:滞后性立法难以匹配技术迭代速度,制度供给与风险演化形成结构性错位。
(三)
立法回应有限性
学界对立法规制路径存在分歧:部分观点主张技术风险层级的演变不应混同于风险类别的扩张,质疑“风险立法论”对治理生成式人工智能技术滥用的有效性,强调应在现行法律框架内实施治理。相反,也有学者指出,人工智能技术与风险的双重迭代亟需制度创新,通过专项立法实现有效规制,该诉求已获多国立法实践响应。
1.美国:柔性治理范式
美国采取技术发展与市场驱动并重的治理策略,联邦层面暂未形成统一立法,主要依托行政命令、州级立法及行业特别法规构建监管网络。2023年《关于安全、可靠和可信人工智能行政命令》确立了政策法制基础,辅以2022年《人工智能权利法案蓝图》及2024年《人工智能国家安全备忘录》,形成聚焦公民权利保护、特定领域风险防控的治理体系,确保自动化系统符合民主价值观。
2.欧盟:严格监管先锋
欧盟构建了具有全球影响力的伦理规制框架,2019年《可信人工智能伦理准则》确立四大核心原则(人类尊严至上、伤害预防、公平保障、决策透明)及七项实施要求。2024年里程碑式《人工智能法案》首创风险分级监管机制,明确开发者义务,建立统一规范框架,推动全球人工智能治理进入制度性约束新阶段。
3.中国:前瞻性立法实践
我国在生成式ai立法领域展现引领态势:2017年《新一代人工智能发展规划》首构国家战略顶层设计;“数据三法”(网络安全法、数据安全法、个人信息保护法)奠定数据治理基石;《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等专项规则完善规制链条。2023年《生成式人工智能服务管理暂行办法》作为全球首部专门立法,通过限定服务提供者责任边界,彰显发展与规范并重的治理智慧。
然而,我国人工智能立法仍有一些短板待补齐,人工智能主体地位、责任承担、技术伦理等基础问题有待明确界定,深度合成、自动驾驶等场景应用的风险分级与动态监管机制有待完善。譬如,在现有框架下,人工智能不具有自主意识和独立人格,只有工具价值,不能成为民事主体,不享有著作权主体地位,也不独立作为侵权主体赔偿。但随着技术飞速发展,生成式人工智能逐步实现从“信息归集”向“成果创作”的跨越,自然人和人工智能间的贡献边界、责任划分逐渐模糊化,如果仍将其视为民事客体,可能难以应对未来生产模式变化,甚至诱发不当责任转嫁风险。再如,《暂行办法》将服务提供者确定为责任主体,而现实中“网络信息内容产生者”与“网络信息内容服务平台”往往各自独立。如果全然按照《暂行办法》要求,“平台”服务提供者既要承担网络内容提供者的责任,也要承担技术提供者的责任,实际上加大了自身侵害他人知识产权的责任风险,不利于生成式人工智能产业的健康发展。由于缺乏明晰的责任划分机制,致使部分人工智能服务“平台”企业因担心“动辄处咎”而踌躇不前,甚至暂缓了应用模型服务功能的进一步扩展。
二、生成式人工智能法律规制的目标与理念
人工智能技术革新在驱动经济转型的同时,也重塑着社会治理格局,要求我们同步把握发展机遇与风险应对。其法律规制须在自由与管控、效率与公正、安全保障与技术演进等多重价值维度中建立动态均衡。
(一)
安全与发展协同治理目标
生成式人工智能作为数据、算法、算力融合的产物,已深度渗透消费市场与产业生态,对培育新型生产要素、激发产业动能、优化治理模式具有战略意义。然而其内在的技术不确定性及衍生的社会、伦理、法律风险不容忽视。治理的核心使命在于引导技术向善进化,实现科技突破、经济增益与人类福祉提升的协同发展。
国际层面,2019年经济合作与发展组织(oecd)发布的《确定oecd的人工智能发展原则》确立了人工智能发展的五项原则,本质体现安全与发展并重逻辑。我国通过《数据二十条》构建数据基础制度框架,《数字中国建设整体布局规划》更是强化“创新-安全”平衡机制;《暂行办法》第3条更明文将“发展与安全协同”列为根本目标——这既基于技术双面性的客观评估,亦契合人工智能发展规律与中国现实需求。从全球科技竞争视角审视,生成式人工智能已展现出颠覆性潜能,成为大国综合实力较量的关键赛道。尽管其存在主体性侵蚀等技术伦理隐忧,但更应关注其对市场主体竞争力革新、国家治理能力跃升的革命性价值。党的二十大报告旗帜鲜明地将人工智能作为新的增长引擎之一,这要求需持续投入经济、科技和人才等方面的资源与力量,攻克生成式人工智能核心技术,提高算法算力水平,推动场景有效落地。
然而,现行法律规范体系的结构性缺陷,主要体现在对于例如淫秽物品的司法解释仍以数量为量刑核心,无法应对ai无限生成特性;碎片化的法律规范缺乏对算法透明度的系统性要求;管控要求呈现明显的单向管制情况,重在风险防控且比较忽视发展引导,会抑制技术创新动能。鉴于我国人工智能法律政策体系存在的缺乏系统性、协调性的“碎片化”现象,有学者认为,一方面,可以先出台一个“框架性”法律,坚持发展主线,坚守安全底线,明确人工智能治理的基本原则、鼓励创新发展的基本制度、监管风险的基本要求,解决容纳和化解高度不确定的问题,提纲挈领地为人工智能时代个体权利的保护体系定调,绘制人与技术的合理关系的图谱,在法治轨道上为人工智能技术创新和产业发展保驾护航。另一方面,同时采用“小切口”“短快灵”的立法,在上述“框架性”立法为未来技术发展的不确定预留包容空间的前提下,细分人工智能领域和垂类应用若干环节,并进行诸如沙盒监管的试验性监管,待经过实践检验证明行之有效后,再适时出台综合性的立法。还有学者认为,立法应以发展与安全并重为指导思想,以促进研发应用与防范主要风险为二元立法目的,构建重点突出的风险防范制度,动态科学研判风险、包容审慎规制风险;在主要利益关系方面,应坚持以人为本的基本立场,建立与人工智能发展相适应的个人信息处理、知识产权保护等方面的协调规则。还有学者认为,应坚持以人为本、发展导向的赋能型人工智能治理核心理念,以及从中发展出的智能向善、包容审慎、敏捷治理、可持续发展等基本理念。应建立以法治为核心的赋能型人工智能治理机制以及法治统领下的各项具体机制,建立多元主体沟通协作的共治机制,构建与人工智能发展相适配的“避风港”机制,建立敏捷互动、激励向善发展的动态监管机制。
这些学者虽然各有侧重,但均是将发展与安全作为生成式人工智能法律规制的目标,一方面需通过技术创新赋能与产业生态培育全面激活经济动能,另一方面必须践行总体国家安全观以构建风险防控体系,强化数据治理合规性。本质上要求通过制度供给既加速人工智能技术的创新转化与产业落地,又确保生成式ai运行符合伦理规范,最终导向人类共同福祉的可持续增进。换言之,生成式人工智能立法需通过制度耦合实现“研发促进”与“风险防控”的价值统合,在风险阈值可控的边界内最大化释放生成式人工智能的发展潜能。
(二)
前瞻性风险防范的理念
基于我国人工智能产业发展态势,亟需在技术创新激励与风险防控间构建动态平衡,形成特色鲜明的规制范式——前瞻性风险防控框架。该理念要求以系统化、预见性视角审视生成式人工智能的创新潜力与风险图谱,实施弹性监管策略:通过扩大技术试错容错空间,为创新提供制度性缓冲。如学者所言,安全本质具相对性,追求“零风险”不符合技术治理的科学逻辑。鉴于ai技术迭代迅猛,早期刚性监管易窒息创新活力,故应确立“发展治理协同推进”原则,以审慎包容立场支持市场主体产业布局,培育健康产业生态。当技术应用产生负面效应时,须坚持精准治理导向,避免粗放式管控,实施问题靶向矫正。
“滞后治理”“压制型治理”“协同治理”代表不同规制哲学,为应对生成式人工智能冲击,既要规制已显现的安全威胁,更需预判未来可能泛化的行业性风险,通过前瞻预防机制最大限度释放技术效能,消减新兴科技对社会结构的震荡。
三、检察履职服务保障人工智能产业的着力点
(一)
核心领域检察惩治
1.严惩侵害核心技术犯罪,助力人工智能模型能力跃升
重点打击侵犯大模型企业数据权益违法犯罪行为,着力增强技术交易、数据交易领域检察环节犯罪预警和风险处置能力,强化场内、场外、跨界等数据交易安全。针对算法侵权、深度伪造、非法数据交易等新型犯罪,联合公安机关建立“技术侦查+法律审查”协同机制,提升电子证据固定、算法黑箱破解能力。
比如,s市x区院办理的一起生成式人工智能涉黄犯罪案件折射出了利用ai实施犯罪案件在司法实践中的核心困境。此类案件面临境外数据调取壁垒、算法黑箱导致的因果关系证明障碍、生成内容易失性引发的鉴真困境等系统性难题。在司法取证方面:一是数据易失性与复现困境。生成式人工智能输出的伪造内容具有瞬时性、海量性与随机性特征。且涉案数据常存储于境外服务器(如亚马逊),且犯罪主体多采用短期租赁模式(如按周续费),一旦服务终止或数据删除即不可恢复。因此,司法实践中存在侦查人员虽已固定4台关联服务器,但因技术逻辑复杂性与跨平台调用依赖,始终无法复现犯罪现场。二是境外数据调取壁垒。由于关键数据常位于境外司法管辖区,境内服务商(如亚马逊中国)仅作为代理商,无实际数据控制权。而向境外机构调证需遵循复杂国际司法协作程序,存在响应迟延、成本高昂、成功率低三重障碍,导致关键证据链断裂。三是深度伪造检测技术滞后。传统检测工具难以识别迭代迅速的ai生成内容。当前应对策略依赖水印破译学习,通过辖区ai企业提供大模型生成样本,训练鉴伪系统识别主流平台的隐形水印。但该技术需持续更新模型,且无法覆盖所有生成工具。在算法黑箱引发的证据审查与鉴真困境方面:一是因果关系证明障碍。生成式人工智能“端到端”特性使算法逻辑不可追溯。譬如,技术提供方、平台服务方、终端用户形成责任链条,但各方均以算法自主性否认行为与结果的因果关系。二是功能性鉴定的局限性。传统软件鉴定可解析“输入a→输出b”的代码逻辑,但生成式人工智能的输出具有随机性:相同输入可能产生差异结果。司法机关即便使用原始语料复现,亦无法获得一致性结论,削弱了证据的证明力。三是多方主体责任界分难题。算法黑箱导致技术开发者、服务提供者、终端用户的行为贡献度难以量化。对此,检察机关与公安机关尝试协同开发对深度伪造的鉴伪软件,通过大模型学习训练区企业模型生成的图片、视频的显性和隐形的水印加密方式,来溯源深度伪造来源。此外,检察机关还通过“虚拟-现实链接”与“三维对比验证”等方法,在技术黑箱中开辟了证据审查的创新路径,即注重在证据层面建立线上行为与线下意图的映射关系;通过行业标准基线测试进行同类目对比,验证技术异常性与否;通过侦查实践对照组进行变量控制对比,验证多因一果中因果贡献度,找出关键变量;通过技术干预前后输出分析进行时间序列对比,验证行为技术影响力。
2.强化知识产权全链条保护,助力人工智能创新策源突破
依法惩治各类侵犯知识产权犯罪,强化数字经济、人工智能、移动互联网、区块链、生物医药等新兴产业知识产权保护力度,助力传统产业改造升级,护航因地制宜发展新质生产力。健全知识产权保护行政执法与刑事司法协作机制,积极探索知识产权案件民事支持起诉、刑事附带民事诉讼工作,依法保护科技创新主体合法权益。依托发布知识产权保护白皮书、风险提示等,强化涉知识产权犯罪风险预警、跟踪和应对,并助力完善相关机制,服务高水平科技自立自强。
(二)
多元化协同共治范式
人工智能体具有深度交互性、高度互联性以及动态适应性。相应地,治理方式应当超越传统的以个体为中心的治理,推动形成广泛互联、多方参与、多层次协作的治理生态。一是要形成“技术+伦理+法律”的综合治理范式;二是要形成“检察机关+大院大所大校+企业+行业协会+政府”的协同共治模式。
1.健全公检法司协同机制
建立健全联席会议与信息共享机制,公检法司定期召开联席会议,通报涉人工智能案件态势、风险预警及治理难点,制定协同行动清单。优化办案协作,提升全链条打击效能,设立“人工智能案件联合工作站”,对商业秘密泄露、数据跨境侵权等案件快速响应、联合处置,并定期开展行业联合治理行动,强化风险共防,筑牢合规治理防线,形成“打击-监督-教育”闭环。
2.加强产、学、研、协、政等多层级、多主体的联动
针对科技创新要素集聚、知识产权问题前沿性专业性复杂性趋强的实际,联合区科委、工商联、网信办、市场监督局、行业协会等明确“人工智能+”垂类应用规范与指引,深入推进人工智能检察综合履职。针对数据滥用、黑客攻击、算法黑箱等突出问题,运用法治方式保障企业科技创新主体地位,推动建立健全人工智能领域风险防控机制。通过产学研协同攻关法律与技术交叉问题,助推完善“人工智能+”的规则之治,推动科技前沿领域法治保障理论和实践研究。
3.构建跨省检察协作机制
深化区域协作,构建办案资源协同网络。推动共建共享“人工智能案件专家智库”,共享技术调查官等人工智能领域外脑智库,实现跨省案件技术支援“一键调用”。建立异地电子证据调取“绿色通道”,对深度伪造、模型窃密等案件开展联合取证,异地协查。建立重大案件会商制度,针对涉人工智能重大、复杂、疑难案件,对罪名认定标准、量刑规范等关键争议焦点问题进行深入研讨,把好案件办理的事实关、证据关及法律适用关,提升办案质效和司法公信力。
(三)
人工智能企业全生命周期服务保障
国务院印发的《新一代人工智能发展规划》确立“设计担责-应用监督”双轨监管范式,《暂行办法》升级为“全周期-全要素”治理框架,其本质均要求基于技术全生命周期构建覆盖研发、部署、运维各环节的立体化监管体系,通过政策演进与技术适配,实施风险差异化管控。
生成式人工智能在不同技术阶段呈现异质性风险特征,需动态调整监管重心、责任配置及治理工具。鉴于技术迭代加速,亟需建立场景适配型规制矩阵。欧盟《人工智能法案》《数字服务法》及我国《暂行办法》均体现分层治理导向。从产业架构看,其“基础模型→垂直模型→应用服务”的三层赋能体系,要求构建对应不同技术层级的治理规则与监管工具组合。风险定级的核心挑战在于风险量化标准的确立。以算法为例:作为技术中枢,其安全边界与网络安全、数据保护既存交集又有本质差异。算法因价值偏差、架构缺陷或信任崩塌引发的深度风险,需作为全周期风险评估轴心。因而,风险分级应实现双重协同,即应用场景危害强度对应规制力度,风险类型映射监管义务层级。
1.事前风险提示:检察机关在人工智能技术商业投入前可进行风险提示
根据法律监督职能,对于人工智能垂类应用于金融、制造、教育、医疗、文旅、城市治理等领域研发的技术、产品,联合行业协会等监管部门,前置介入其内生安全体系,共同测评数据安全、模型安全、应用服务安全、基础设施安全等,帮助建立健全监管和管理体系,如法规政策、标准规范、保障措施等。
在人工智能体的开发、训练、部署、运行和服务等环节经过高度专业化的分工,形成了复杂的分层结构。每一层均有不同的参与者、利益相关方和潜在风险因素,使人工智能体具有“模块化”的产业链特质。比如:在生成式人工智能的准备阶段,数据安全风险多发突出;在运算阶段,算法偏见风险值得警惕;在生成阶段,存在着与生成物相关的知识产权、生成物滥用等风险;在运用阶段,存在损害数字弱势群体合法权益的风险。因而,检察机关应反向审视产业发展过程中存在的管理问题,探索采取“模块化”方式,分阶段制定具体模块领域相关法律风险提示和规范指引,服务各模块领域规范建设和法治需求。聚焦知识产权保护、公民个人信息保护、计算机信息系统安全保护和数据安全保护这“四大领域”,对可能出现的法律风险进行提示,针对数据滥用、黑客攻击、算法黑箱等突出问题,运用法治方式保障企业科技创新主体地位,推动建立健全人工智能领域风险防控机制,为人工智能产业“规则之治”提供检察履职“案例样本”。
2.常态精准问需:完善检企常态化联络机制
进一步畅通企业诉求表达渠道,持续精准问询人工智能企业真实、迫切法治需求,围绕“转化-孵化-产业化”的全过程创新,形成对大模型企业的全过程保护,提供更高效专业的法律对接服务,推动科技成果向现实生产力转化。
3.场景化规则指引:区分场景化法律适用问题,提出类型化场景化的办案指引
根据《人工智能法治发展指数4.0》和《2023中国人工智能法治发展评估报告》显示,我国在自动驾驶、智慧医疗、人脸识别和智能金融等人工智能的典型应用领域,有关专业部门连续出台相关指引性文件,人工智能的场景化治理得到了初步实现。检察机关可以根据投入商业运用前后的理论、实践情况,区分场景化法律适用问题,并针对性提出类型化场景化的办案指引,指导实践中批量案件的法律适用标准、证据收集审查规则等。结合法律规定和人工智能产业的发展规律,准确区分民事侵权、行政违法与刑事犯罪,为人工智能产业发展提供良好法治环境。
4.事后司法救济:构建衔接保护体系,提升综合保护水平
通过涉案线索、法治需求的“集中输入”,行刑衔接、立案监督、民事支持起诉等“分流处置”,强化送法进企等法治服务的“反向输出”,助力提升服务生成式人工智能创新的“行政”+“司法”综合保护水平。针对涉人工智能科技小微型初创企业权益受强势主体侵害、公民个人信息受涉人工智能互联网企业侵害等方面的线索研判,探索运用民事支持起诉职能、民事公益诉讼职能,维护弱势群体合法权益,服务人工智能产业创新发展和规范运行。
(四)
人工智能人才培养
1.组建人工智能领域专家智库
集聚人工智能领域具有深厚学术造诣和广泛影响力的专家学者及掌握人工智能先进技术的行业精英、技术骨干,协助案件办理、理论研究、人才培养和国际交流合作。
2.打造高素质复合型干部队伍
深化人工智能综合履职团队建设,加强优秀年轻干部轮岗锻炼和跟踪培养,依托集中学习、参加讲座培训、外出考察调研等方式,系统培养全院干警人工智能领域知识体系、前瞻性思考和综合履职能力。一是拓展新质生产力的知识面,在职业素能培训课程中增设与大数据、云计算、人工技能等与数字技术素养相关的课程,补齐知识空白。二是聚焦办案需求,抓实业务培训,围绕多发高发类案、疑难案件、新类型案件等主题,组织开展检法、公检、检司同堂培训,加强部门间沟通交流,提升综合履职和办案能力。三是注重实践应用。通过加强案例研究教学、引进优质实务师资、搭建校企实训基地平台、互派干部挂职锻炼等形式多样的合作育人方式,强化检察人员专业技能应用和实务操作能力。
3.建强专业化办案团队
首先,对已形成一定规模的案件量、具有集中履职前提的重点领域、新业态领域,以组建常态化专业化团队来进一步加大对该领域惩治犯罪的力度和社会治理,提高该领域案件办理的专业化水平;落实精品案例培养,加强案例学习研讨,聚焦新类型、典型性、代表性的案件深度挖掘、提炼、加工,加速案例培育成果转化。其次,对案件量少但经研究具有跨“四大检察”的重大法律监督线索的新业态领域,可以组建若干个跨部门临时性办案组,集中优势力量办理重大法律监督案件。以此打破职能壁垒,强化协同配合、凝聚监督合力,依法做深做实社会治理。最后,注重借助外脑,为办案提供智力支持。一是加强与兄弟省市院、知名政法院校交流学习,就法律政策、前沿理论、新业态领域中的疑难复杂问题等开展探讨研究,邀请专家学者作为案例咨询“智库”,充分发挥“外脑”作用,辅助解决办案中遇到的各类法律问题。二是邀请行政执法人员担任特邀检察官助理,创新专业人员辅助办案模式,为检察机关提供外脑支持,通过协同办案等督促检察建议落实。
![]()
李明泽|元宇宙空间性侵害行为的刑法适用分析
王婕琼 郑林贝|侵犯著作权罪保护法益的价值选择——基于对人工智能生成物作品属性之争的思考
朱周|我国环境行政执法与刑事司法的衔接制度研究
朱正宇 关轶男|我国被拐卖被害人保护制度的困境与出路
目录|《新兴权利》集刊2025年第2卷
庄晨曦 刘月|网络图片著作权商业维权的司法应对之道
上海市法学会官网
http://www.sls.org.cn
上观号作者:上海市法学会





京公网安备 11011402013531号