环球时报
“十五五”规划建议作出了“推进全国一体化算力网等建设和集约高效利用”“抢占人工智能(AI)产业应用制高点”等一系列重要部署,前瞻布局了我国AI发展需要的基础设施,并指明了AI技术应用方向。如今AI与社会生活的关系日益紧密,但它带来的安全风险也越来越受到关注。全国政协委员、360集团创始人周鸿祎在今年全国两会期间重点关注了智能体公共服务平台建设以及安全智能体规模应用等方向。接受《环球时报》记者采访时,周鸿祎明确表示,随着技术发展,AI自身风险加剧,一旦与业务系统深度结合,可能带来更复杂的安全隐患等问题,因此需要“以AI对抗AI”。
推理算力的重要性日益凸显
近年来,全球越来越多的AI业内人士承认,由于大模型训练和使用会产生巨大的电力消耗,因此电力供应成为制约AI发展的关键因素。在周鸿祎看来,中国的电力优势正持续转化为通用算力。通用算力分为训练算力和推理算力,但算力本身并不直接创造产业价值。只有消耗推理算力运行的智能体,才能将通用模型能力转化为懂行业、懂场景的“专用智力”,再由“懂AI又懂业务”的专业人才进行规划与治理,并在安全能力护航下运行,最终形成稳定、可持续的生产力。在这一转化链条中,智能体成为连接各要素、推动生产力形成的关键引擎。
周鸿祎尤其关注的是推理算力的发展。推理算力是指AI大模型在实际应用中响应用户请求的计算能力,其核心需求是低延迟、高实时性、隐私保护。与集中式、高能耗、长周期的训练算力不同,推理算力更强调“实时响应”——当用户通过终端(如手机、机器人等)发起请求时,可快速完成数据处理与结果输出。
随着百亿级智能体进入产业场景,推理算力的重要性日益凸显。当前我国训练算力稳步提升,但面向推理任务的专用集群仍存在结构性缺口,专用推理芯片能力亟需突破。周鸿祎表示,几年前行业重视训练算力是合理的,因为当时大模型还没有训练好,出现了“百模大战”现象,训练算力在此阶段变得很重要。但从去年开始,国产大模型的性能过了及格线,基座模型的能力足够了,就不用再重复训练模型。如今AI进入到双线进化时代,一方面是大模型的进化,一方面是智能体的进化,其中智能体就需要用到大量的推理算力。
周鸿祎认为,从趋势上看,推理算力的需求已从“云端集中”转向“边缘分布”。将来很多智能硬件需要依靠边缘计算进行预处理,不但减少了海量数据传输的带宽消耗,而且降低了敏感信息泄露的风险。例如机器人依靠本地算力处理日常事务,只有复杂的任务才交给云端算力。推理算力与边缘计算的结合,对于智慧城市、智能工厂的加速建设以及对于机器人产业、自动驾驶产业都有重要的战略意义。
周鸿祎就此建议,应在全国一体化算力体系框架下出台推理算力布局指导政策,建立“全国统筹+区域细化”的布局体系,在重点产业区域建设低时延、高密度的推理算力集群,通过调度机制提升资源利用效率。同时鼓励专用推理芯片国产化发展,实现产业链自主可控,支撑智能体技术的深度应用。
安全领域需要“以AI对抗AI”
周鸿祎认为,当前网络安全领域面临三方面挑战:一是传统安全措施与运营智能化不足。网络安全从漏洞防护、模拟攻击渗透等防御环节,到安全报警、分析、溯源等运营环节,都需要加快智能化升级。例如,面对海量代码,传统的漏洞检测手段主要靠“规则匹配”“人工审查”,难以智能化识别隐蔽性强的高危漏洞,安全漏洞“发现难、修复慢”。
二是“黑客智能体”威胁加剧。利用黑客经验和能力打造“黑客智能体”,只要有算力就可以批量复制、不眠不休、自动攻击。从全球网络安全监测情况来看,“黑客智能体”已成为网络攻击的重要手段,这让安全从过去的“人和人”对抗,升级为“人和机器”的不对称对抗。
三是AI自身存在安全问题。AI自身存在漏洞、价值观对齐等问题。大模型出错,可能导致内容错误、价值观幻觉,而智能体一旦出错会带来严重后果,甚至借助汽车、机器人、无人机等,让威胁从数字世界延伸到物理世界。
面对这些挑战,周鸿祎建议加快推行“以模治模”,用AI治理AI。他表示,包括360集团在内,国内外安全企业都已经广泛使用大模型和智能体协助强化网络安全防护,甚至可能产生根本性变革。他举例说,经过专门训练的智能体,对于寻找程序的各种漏洞、后门和弱口令(例如密码是12345)等缺陷的效率远高于人类。此前寻找漏洞和安全渗透的人才都很稀缺,但专门培训的大模型和智能体“能够7×24小时不睡觉地在重要机关单位的程序中寻找各种漏洞和后门,以及是否存在弱口令的问题,进而协助改进”。
需训练发现程序漏洞的智能体
周鸿祎判断,随着AI编程水平的快速发展,“未来人类可能会彻底放弃对代码的管理权,全部由AI编写、AI管理、AI维护”。因为AI编写的代码数量之多、速度之快,远远超过了人类的维护能力。但AI编写的程序也存在漏洞,完全依靠人类专家在AI编写的海量程序里挖掘漏洞,显然不可行。“这种局面必须解决,否则海量的代码里充满了没人能懂、没人能维护的漏洞,万一AI编写的代码爆出一个大雷,人类后悔都来不及了。想要解决这个问题,就需要专门训练用来发现程序漏洞的智能体。”
这些专门用于发现程序漏洞的智能体得到广泛应用之后,可能对整个网络安全领域产生革命性的影响。周鸿祎解释称,网络安全业内原本的共识是,大型程序动辄是由数百万行甚至更多代码构成,涉及多模块、多组件的协同交互,其逻辑复杂度远超人类可完全掌控的范围,因此“程序里的漏洞是不可避免、不可能完全消除的”,所有安全公司的思路都是“黑客利用漏洞攻进来之后如何防守”。但专门发现程序漏洞的智能体得到广泛应用后,它们可以以远超人类专家的效率发掘新编写的与旧程序中的大量漏洞,“如果确实通过AI把程序漏洞的数量减少了一半,剩下的一半如果AI挖不出来,黑客也不一定能挖得出来,这样网络安全的格局就完全不一样了”。
如何更好地利用AI
周鸿祎认为,随着智能体能力的提升,它可能会代替App成为新的服务核心入口。通俗地说,大模型像“知识丰富的大脑”,能回答问题、写文章、编代码,但不会“动手”做具体的事。智能体是用大模型当“大脑”,通过调用App、控制机器人,自己完成“从想法到行动”的全流程。比如下达“帮我订杯咖啡”的指令,大模型会提醒“打开外卖App下单”,但不会自己打开App、选咖啡、付钱。而智能体会自动拆解步骤,完成打开外卖App,选常喝的口味、填写地址并支付,全程不用人类自己动手。周鸿祎表示,OpenClaw等智能体不但能调用电脑上的所有工具,还可以根据任务需要下载新工具,而且所有的文件都会存在电脑上,“能在电脑上建立起个人的数据记忆,使用越多,将来智能体可能就越有机会改进得更好、更符合个人习惯”。
很多人目前还停留在将AI助手当个聊天机器人的程度。周鸿祎认为,想要用好AI,可以尝试用“角色扮演”的方式。他举例说,如果问AI:公司业务应该怎么发展?通常给出的答案都是泛泛而谈。“如果先告诉AI,你对企业商业模式特别有研究,这样AI在寻找训练数据的时候,就会围绕着企业发展和企业商业模式搜集相关材料,答案的思考深度明显提升。”他解释说,这是因为大模型已基本学到了全球绝大部分知识,但如果不约束到专业方向,AI给出答案时就会什么知识都试图加一点,显得平淡无奇。使用者通过“角色扮演”,AI才会更高效地去寻找相关专业的训练数据。





京公网安备 11011402013531号