当前位置: 首页 » 资讯 » 新科技 » 正文

兼顾合规与创新动态平衡!权威专家解读人工智能伦理审查新规

IP属地 中国·北京 南方都市报 时间:2026-04-04 15:20:36


“数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等,是否采取充分措施确保隐私数据得到有效保护”“是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性”……十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》,标志着我国人工智能伦理治理实现从原则倡导、行业自律向制度化、程序化、全链条、可落地的关键跨越。对此,工业和信息化部信息通信经济专家委员会委员、南京邮电大学信息产业发展战略研究院首席专家、浙江大学网络空间国际治理研究基地首席专家王春晖接受南都采访时表示,这是我国应对智能技术变革与治理需求的里程碑式举措,填补了人工智能领域专门性伦理审查制度的空白,是国家科技伦理治理体系在人工智能领域的细化落地,为人工智能技术向善、智能产业高质量发展筑牢了刚性制度基石。

兼顾合规成本与创新红利的动态平衡

南都:通用人工智能加速落地,伦理风险已成系统性治理命题。十部门发布《人工智能科技伦理审查与服务办法(试行)》,在系统性制度建设上有哪些创新?

王春晖:人工智能正由专用智能向通用智能快速演进,技术渗透力、自主性与社会影响力空前提升,已成为驱动数字经济与新型工业化发展的核心引擎。但技术的狂飙突进也伴生着突出的伦理风险,诸如算法黑箱与算法歧视加剧社会不公,割裂社会共识;深度合成、内容操纵等技术冲击舆论生态,侵蚀社会信任;数据滥用与隐私侵害直接侵犯公民人格尊严;高度自主决策系统模糊责任边界,挑战人类主体地位;部分人机融合技术更直接触及生命健康与人格尊严的核心底线等。

全球主要经济体竞相完善人工智能规制体系,欧盟以《人工智能法案》为核心,构建起严格的风险分级监管框架;美国通过行政命令与司法实践,强化对高风险人工和智能系统的常态化管控等,全球人工智能治理已进入规则竞争的关键时期。作为人工智能产业大国、应用大国和创新大国,我国亟须一套立足国情、适配技术发展、可操作、可执行的顶层制度设计,以回应社会公众对技术伦理的关切,防范系统性伦理风险,抢占全球人工智能治理的道义制高点。

此次《办法》共六章37条,另附高风险活动复核清单,在衔接《科技伦理审查办法(试行)》基础上,针对人工智能技术迭代快、风险隐蔽性强、社会外溢性突出等特征,形成了系统性的制度创新,实现了伦理治理与技术发展规律、产业发展需求的深度适配,构建起“预防、服务、监管”三位一体的善治体系。

南都:我们注意到此次《办法》设“服务与促进”章节,在您看来是出于哪些考量?

王春晖:《办法》突破传统治理中“重监管,轻服务”的固有思路,专设“服务与促进”章节,明确将伦理治理定位为产业发展的助推器,而非简单的约束项。具体而言,推动构建多层次、全方位的人工智能科技伦理标准体系,加快国际标准、国家标准、行业标准、团体标准的协同衔接,为行业发展提供清晰、明确的合规指引;强化伦理风险监测预警、检测评估、认证咨询等公共服务供给,重点加大对中小微企业的伦理审查支持力度,破解其合规能力不足的困境;鼓励伦理审查技术创新与高质量数据集有序开源开放,推动以技术手段防范技术伦理风险,实现治理效能与创新活力的双向提升。这一制度设计实现伦理治理与产业发展同向发力,兼顾合规成本与创新红利的动态平衡,有效避免伦理治理“一刀切”可能带来的创新抑制问题,为人工智能产业健康发展保驾护航。

以“清单管理+专家复核”分级施策

南都:此次《办法》中是如何界定相关主体责任,确保伦理审查责任层层落实、落地见效?

王春晖:《办法》清晰界定三级责任主体。首先,落实单位第一责任。高校、科研机构、企业等作为人工智能科技活动的实施主体,必须设立独立运行的人工智能科技伦理委员会,将伦理要求全面嵌入研发、测试、应用、迭代全流程,实现伦理风险的源头防控。其次,强化专业服务支撑。鼓励地方依托相关单位建立专业化的人工智能科技伦理审查与服务中心,面向社会提供审查、复核、培训、咨询等第三方服务,有效破解基层单位“不会审、审不了”的现实难题。第三,压实政府监管职责。工业和信息化部会同相关部门统筹推进人工智能伦理治理工作,科技部负责统筹指导全国科技伦理监管工作,各行业主管部门与地方管理部门分工负责、协同联动,形成上下贯通、左右协同的监管格局。这种多元主体分工协作、相互制衡的协同治理模式,从根本上提升了伦理审查的独立性、专业性与公信力,为制度落地提供了组织保障。

南都:在审查流程方面又有哪些创新之举,实现伦理监管的精准管控?

王春晖:《办法》根据人工智能科技活动的风险高低,科学设置一般程序、简易程序、专家复核程序、应急程序四类审查流程,严格遵循“风险越高,审查越严”的原则,是全文最具操作性的制度创新。

其中,核心亮点在于附件所列的高风险人工智能科技活动复核清单,明确划定三类必须开展专家复核的高风险活动:对人类主观行为、心理情绪和生命健康具有较强影响的人机融合系统研发,此类活动直接触及人类尊严、身心安全与主体性底线,是伦理风险最敏感的领域;具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统研发,事关意识形态安全、社会共识凝聚与公共秩序稳定;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统研发,直接关系公共安全与个体生命健康,一旦失控可能造成重大损失。

对上述三类高风险活动,《办法》明确要求实行“单位初审+专家复核”的双重把关机制,有效防范自查自纠可能出现的利益冲突与审查虚化问题。设置72小时应急审查机制,确保在突发公共事件等紧急场景下,AI技术能够快速应用且不突破伦理底线,充分体现敏捷治理、精准治理的鲜明特点。

此外,《办法》附件所列《需要开展科技伦理专家复核的人工智能科技活动清单》,是《办法》中最具刚性约束力的制度安排,其核心是对人工智能伦理风险的精准识别与严格规制,为人工智能发展划定不可逾越的伦理红线。将影响人类主观行为、心理情绪与生命健康的人机融合系统列为首要复核对象,直击人工智能伦理最敏感、最具颠覆性的领域。对具备舆论社会动员与社会意识引导能力的算法模型实施从严复核,直面数字时代“算法权力”带来的公共风险。将面向高风险场景的高度自主自动化决策系统纳入重点监管,牢牢守住公共安全与生命健康红线。尤为重要的是,清单明确“根据工作需要动态调整”,既保持了制度的刚性约束,又赋予治理体系足够的弹性,能够随人工智能技术迭代、应用场景拓展及时更新监管范围,避免监管滞后于技术创新,实现伦理治理与人工智能发展同频共振。

应尽快出台场景化伦理审查指南

南都:《办法》提及开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循保护隐私安全等七大伦理原则,您如何看待?如何加速落地执行,推动伦理治理体系全面见效?

王春晖:《办法》将“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信”七大伦理原则,转化为可审查、可评估、可核验的具体标准,彻底打破伦理原则“抽象化、模糊化”的困境,让伦理审查有章可循、有据可依。例如个人信息与隐私是否得到充分保护,数据处理活动是否符合法律法规要求,等等。从源头避免伦理审查“走过场”“形式化”的问题,推动伦理要求真正嵌入算法设计、数据采集、模型训练、产品落地的底层逻辑,实现伦理与技术的深度融合。

而且,为确保伦理审查从“软倡议”转变为“硬约束”,《办法》还构建了一套严密的刚性约束体系,为制度落地提供坚实保障。依托国家科技伦理管理信息登记平台,实现人工智能科技伦理委员会相关情况、高风险人工智能科技活动等信息的统一登记、信息共享、全程留痕,确保监管可追溯、可核查;畅通伦理问题投诉举报渠道,健全监督机制,鼓励社会力量参与伦理监督,形成全方位、多层次的监督格局;严格遵循《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》等上位法律法规,明确违法违规行为的责任追究路径,对违规开展人工智能科技活动的单位和个人依法予以处罚。

要实现治理效能的全面释放,还需聚焦落地执行,在三方面持续发力、久久为功。一是加快细分领域配套细则建设,实现上下贯通、行业适配。医疗、金融、交通、传媒、公共治理等人工智能应用密集领域,应结合行业特点,尽快出台场景化的伦理审查指南,明确具体审查要点、责任边界与评估方法;加速伦理风险评估模型、算法审计系统等技术工具的研发与普及,为基层单位开展伦理审查提供专业支撑。二是加快复合型伦理人才培养,破解专业能力瓶颈。需支持高校完善相关学科与课程体系,开设人工智能伦理、科技伦理审查等相关专业;加强对伦理审查从业人员的专项培训,培育一批既懂AI技术、又通伦理法律、兼具社会责任感的复合型审查专家队伍。三是培育“科技向善”的社会生态,形成多方共治共识。应加强人工智能伦理科普宣传,提升公众的伦理风险意识与监督能力;引导企业将伦理理念融入研发流程、企业文化与产品设计,主动履行伦理责任;支持科技社团、行业协会制定行业自律规范,推动形成政府监管、企业自治、行业自律、社会监督的多元共治格局,让“科技向善”成为全社会的共同追求。

南都:对标全球主要经济体的人工智能规制体系,此次人工智能伦理治理政策体现哪些中国特色?

王春晖:《办法》的出台不仅是我国人工智能伦理治理进程中的里程碑事件,更在全球范围内构建了一套兼具中国特色与国际共识的治理方案,为重塑全球数字治理格局贡献了“中国智慧”与“中国方案”。

对内而言,《办法》是人工智能高质量发展的制度基石与行动指引。通过前置性的伦理审查与全生命周期的风险防控,有效防范了算法歧视、隐私泄露、深度伪造、自主决策失控等潜在风险,切实筑牢了国家安全与公共利益的防线。通过划定清晰透明的合规边界,遏制“劣币驱逐良币”的恶性竞争,显著提升社会公众对人工智能技术的信任度,为技术规模化应用奠定了基础。这种制度安排倒逼企业将“伦理可信”转化为产品与服务的核心竞争力,为我国人工智能技术的国际化拓展扫清了制度障碍。

对外而言,《办法》成功塑造了“预防优先、服务导向、技术赋能、多元协同”的中国特色人工智能治理范式。这一模式既区别于欧盟侧重高强度规制的“硬法”路径,也不同于美国依赖市场主导的“软法”模式,而是探索出一条兼顾发展与安全、平衡效率与公平的“第三条道路”。它既坚守伦理底线、防范技术风险,又充分尊重技术创新规律,保障产业发展活力,为全球人工智能治理提供了具有可操作性的实践样本,显著提升了我国在全球数据与人工智能规则制定中的制度性话语权,推动全球人工智能治理体系向着更加公正合理、包容普惠的方向演进。

采写:南都N视频记者 袁炯贤

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。