当前位置: 首页 » 资讯 » 新科技 » 正文

生成式AI加速演进,新挑战怎么防

IP属地 中国·北京 环球网资讯 时间:2026-02-02 08:27:10

环球时报

网络安全如今深刻影响各国的政治、经济、文化、社会等不同领域,越来越多的案例证明“没有网络安全就没有国家安全”。特别是生成式AI的加速演进,带来全新的安全挑战。1月29日到30日在成都举行的2026年网络安全等级保护技术学术交流活动中,与会的业内专家给出了不同的“解题思路”。

据《环球时报》记者了解,由于生成式AI与生俱来的缺陷,它在快速发展的同时,也带来包括数据污染、违规内容生产、机理不透明、能力滥用、意识形态渗透、模型缺陷、隐私泄露、深度伪造乃至知识产权保护、责任归属等各种突破传统安全领域的新挑战。

中国工程院院士邬江兴在本次活动中,围绕当前AI安全治理挑战作专题报告。他强调,各国AI竞争的本质,是一场终点线模糊的马拉松式耐力比赛,决定胜负的关键并非哪个国家取得了突破性技术,而是谁能更高效地推动AI在各生态系统实现规模化渗透应用。但AI想要大规模应用,首先就面临“安全信任壁垒”的问题——对于大众用户来说,需要确认AI到底有多安全,才能“敢用”;对于电力、金融、政务等关键行业来说,则只有了解了AI犯错会造成多大的影响、责任如何界定,才谈得上“敢推广”;而从监管的角度说,更是需要知道AI安全如何去衡量、监督和处置,才谈得上“敢管”。

邬江兴院士表示,从当前生成式AI的基本原理来说,它的基础就存在安全边界不确定的内生缺陷。“AI系统的数字化底座——底层计算平台和操作系统基于存储程序控制构造,不可能彻底杜绝设计的脆弱性(例如漏洞等),由此必然导致底座安全边界的不确定。”美国人工智能公司OpenAI的研究更是从数学上证明,大模型的风险根植于训练数据的统计学本质,因此出现“机器幻觉”是必然的,无法根除。

这也是传统方法应对“AI犯错”时遭遇的困境:优化训练数据、改进训练方法和模型结构等手段,不可能彻底消除AI安全边界的不确定性;而人类或传统机器监管AI,也面临海量的AI“管不过来也管不了”的问题。即便是在网络安全领域常用的组织“红蓝对抗”,通过实战手段测试系统的安全防御能力,在当前大部分AI应用场景中也显得无能为力——因为“红蓝对抗”是分为明确的攻击方和防御方,但当前大部分AI问题都源于“无攻击方的内生失效”。

针对这些困局,邬江兴院士在报告中提出了AI内生安全理论,让AI安全性由构造自身效应而非后验迭代修补来保证,他建议效仿汽车工业一整套的质量安全监管体系,在AI领域也建立有公信力的安全评测标准,让政府监管“有据可依”,让企业知道怎么去“自律”,让用户放心使用。

在活动现场,还颁发了中国首个第五级信息系统备案证明,并同步发布《生成式人工智能网络安全等级保护与检测技术白皮书》。白皮书在公安部网络安全保卫局统筹指导下,由公安部网络安全等级保护中心、网络安全等级保护与安全保卫技术国家工程研究中心联合政产学研用30家单位编制,经院士及权威专家把关,系统梳理生成式人工智能面临的突出安全风险,探索等级保护实施路径并提出工作建议,为产业规范有序发展提供技术支撑。

中国工程院院士吴建平表示,在人工智能与计算机互联网为基础的网络空间加速融合背景下,需要协同推进网络安全等级保护、关键信息基础设施保护、数据安全保护,夯实底层技术,构建动态防护体系,坚持开放协同创新,筑牢网络强国安全屏障。

中国科学院院士冯登国表示,当前数字技术与实体经济深度融合,新技术新业态快速涌现,安全威胁的隐蔽性和传导性提升,面对新形势如何构建与数字时代匹配的等级保护制度体系,推动等级保护向实战化、体系化、智能化转型,是大家必须直面的重大课题。

中国社科院法学所研究员支振锋强调了加快《网络安全等级保护条例》立法的必要性和紧迫性,他指出当前法律、行政法规等各层面已具备推进立法条件,应进一步健全网络安全等级保护工作机制。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。