2026.01.22
![]()
本文字数:1323,阅读时长大约3分钟
作者 |一财评论员
日前召开的全国高级法院院长会议强调,要依是一把双刃剑,既可以提高社会生产力,也给社会治理带来新的挑战,并且风险几乎可以触及社会各领域。同时,网络信息技术和人工智能迭代的速度远超过执法部门和司法部门的反应速度,对相关违法犯罪行为,即使是在刑事领域也面临与时俱进的问题。
显然,此类新型犯罪正在受到高度重视。最高法提出,利用网络信息技术特别是人工智能实施的新型犯罪,往往隐蔽性更强、主观恶性深、社会危害大,总体要依法从严,促进实现公平正义。对“高科技”专业团伙犯罪、网上临时联络实施犯罪等,在从严打击的同时,要深度揭露犯罪手段、本质和危害,教育警示社会面。
以生成式AI为例,可能导致三类犯罪风险发生:数据处理不透明性可能引发侵犯个人信息等犯罪风险,生成内容不可控性可能引发侮辱、诽谤或传播违法信息等犯罪风险,以及技术滥用被直接用于诈骗或间接辅助犯罪的风险。若风险变成了犯罪现实,对相关主体的合法权益造成严重危害,从侦查到检察起诉,再到法院判决,当前都面临着许多新情况、新问题。
今年1月初,上海市静安区人民检察院在通报近三年数据安全刑事犯罪检察办理情况时,提到首例利用深度合成技术“AI换脸”突破人脸验证的新型网络犯罪。并总结道:总体来看,网络犯罪手段趋向技术性、隐蔽性,犯罪对象向多样化、高价值化演进,犯罪空间体现跨域性、交织性,犯罪团伙呈现产业化、链条化,这些给检察机关办案带来了更大挑战。
上述全国高级法院院长会议也提到,在审判过程就有利用人工智能质证辩论甚至伪造证据对抗正当程序、司法审查的现象发生。
在执法领域同样存在此类问题,其中一个很重要的问题是“人”和“机”的责任问题。其中存在的困惑,一是主体认定困境,人工智能能否承担刑事责任存在争议,这需重构刑事责任体系;二是行为定性难题,算法推荐违法内容的责任主体是谁?现有过失犯罪理论难以适应AI产品事故,需调整主观责任认定趋向严格责任。
为此,清华大学法学院院长、全国人大常委会委员、宪法和法律委员会副主任委员周光权曾强调:犯罪一个现实的功能就是让我们在发展人工智能技术的同时,要想到这个技术有可能有什么漏洞,可能被犯罪分子利用,那就要把这些补丁都打出来,这对于法律的发展,无疑起着推动的作用。
也因此,无论人工智能技术多么强大,都不能成为独立的犯罪主体或是独立承担侵权责任。包括刑事责任在内的各种责任,最终还是要以明确的法律规定落实到“人”身上。再高级的人工智能,追根溯源仍然是人的价值取向与选择。
微信编辑| 雨林
第一财经持续追踪财经热点。若您掌握公司动态、行业趋势、金融事件等有价值的线索,欢迎提供。专用邮箱:bianjibu@yicai.com
(注:我们会对线索进行核实。您的隐私将严格保密。)





京公网安备 11011402013531号