8月7日消息,随着大模型技术的快速发展,AI智能体的数量也在快速膨胀,其信息安全问题也广受关注。
在ISC.AI 2025互联网安全大会上,全国工商联人工智能委员会常务秘书长范丛明在接受采访时谈到AI 智能体信息安全问题时表示:“需要从法律抓起、从国际标准对齐、从行业要求自律入手,不断地推动政府、企业从业者的共同规范,才能把智能体发展安全推进。”
范丛明表示,以智能体为代表的AI发展非常迅速。国内已经有70多个大厂、头部企业都在迅速推动MCP。当前智能体发展类似于2000年的互联网,也相当于过去的软件,涉及的安全问题不会少于过去的互联网技术。目前,智能体类型繁多,有政务智能体、行业智能体,不同智能体应该对应不同的安全要求。
范丛明认为,防范AI智能体信息安全风险,需要夯实3个方面:
首先要守法。
范丛明提到的“法”,一个是已于2023年8月15日正式施行的由国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》。
另一个是今年3月国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布的《人工智能生成合成内容标识办法》,将于2025年9月1日起施行。
范丛明指出,国家这两部法律已经纳入,大模型必须要通过备案,算法要通过备案,图片、文字、代码是AI生成的必须要标识出来。当前,智能体开发在人工智能的标准、安全的普法上工作量非常大。以深圳为例,95%是民营企业,不是不懂法,而是没有去研究法律,出现错误被罚以后才知道。
第二,对标国际。范丛明提到,欧盟发布了42001的人工智能管理体系,这些体系已经诞生的同时要更多推动这个领域相关国内化应用。去年年底12月份国家电子标准院已经制定了国家人工智能体系,目前这个也正在逐步转为强制规范在推进。
第三,作为智能体,安全上还是要有360这样的国家队来作为重要的力量制定和推动该领域标准。希望头部企业帮着智能体标准安全制定与技术实施。