当前位置: 首页 » 资讯 » 新科技 » 正文

“龙虾”风暴身后,AI智能体出现了哪些安全新考题?

IP属地 中国·北京 陆玖商业评论 时间:2026-03-15 14:12:11

当中国AI产业能在释放智能体创造力的同时,守住安全底线,当每个用户都能安全、放心地养“龙虾”,那么中国AI的下一个黄金时代,也就不远了。



当“养龙虾”成为2026年开春科技圈最火的潮流,从互联网大厂工程师到普通职场人,都在电脑上忙着部署这只突然破圈的AI智能体。

有人用它写周报、做PPT,有人靠它实现代码自动生成,还有人还通过设定让它远程控制摄像头完成拍照工作……

腾讯、百度、360、Kimi等多家科技大厂,纷纷搞起了线下龙虾免费安装调试活动,每场活动都火爆异常。360集团创始人周鸿祎更是亲自下场参与了在公司园区举办的体验日,帮助用户现场装机,以及调试部署。



OpenClaw这只“龙虾”,仅用了短短一个月时间,就让AI智能体在市面上再度火了一把。

但在热潮的另一侧,各类风险也慢慢浮出了水面。有网友在社交平台上吐露自己遭遇“龙虾”乱改代码、误删文件的经历,还有那些别有用心者,竟然利用“龙虾”的权限漏洞制作恶意Skill,看似可爱的AI新物种,变成了潜藏在终端的定时炸弹。

就在360举办龙虾集市的前几天,周鸿祎曾在北京举办了一场媒体交流会,会上他不仅肯定了“龙虾”的实用价值,也提出了这场热潮背后所潜藏的种种安全问题。周鸿祎现场表示,“龙虾是个好东西,绝非病毒”,但AI智能体从“能说”到“会做”,存在一些安全暗角。

当AI不再只是聊天机器人,开始拥有访问电脑、调用工具、自主决策的“手脚”,如何在释放生产力的同时守住安全底线,成为中国乃至全球AI产业必须直面的新考题。

01 破圈的硅基新物种

在周鸿祎看来,“龙虾”的突然爆火,绝非偶然,而是踩中了AI产业从大模型单打独斗到大模型+智能体双线进化的关键节点。

事实上,早在几年前,国内互联网大厂早已布局智能体赛道:头条有Coze、百度有秒搭、腾讯阿里也有各自的智能体平台,而360也在较早时候就搭建起智能体工厂供个人和企业用户零代码打造智能体。

只不过,过去很长一段时间,这些AI产品更多被设定为“工具思维”,谈不上真正意义上的破圈。用户眼中的AI智能体,不过是一种“可以完成特定任务的软件”,预设好流程、限定好能力,精准差不多够用,但惊喜恐怕不足。

而“龙虾”的颠覆性则在于,它跳出了工具的框架,成为了一个具备自主意识、自我进化能力的硅基新物种——它不再是被用户教着干活的“提线木偶”,而是能主动调度工具、组合技能、试错创新的数字搭子。

周鸿祎分享了这样一个案例:360一名员工让“龙虾”帮忙拍张电脑照片,但“龙虾”本身并没有这个能力,它自主在GitHub上下载了控制摄像头的软件,运行后完成拍照并发送至飞书。这个在传统智能体看来是不可能完成的任务,但“龙虾”通过自主寻找工具和组合能力实现了。

这正是它与传统智能体的核心区别——

传统智能体是工具型,能力由开发者编排,只能完成预设流程,就像一台设定好程序的机器;而“龙虾”是进化型,拥有数千种可调度技能,能通过试错组合出不同的解决方案,甚至能将成功经验转化为新技能,将失败教训总结为避坑指南。

更重要的是,它把智能体的提示词拆分为Soul(人设)、Skill(技能)等多个可编辑文件,用户能自主训练、自定义改造,让“龙虾”有了强烈的拥有感,这也是它能超越各大厂产品,成为普通用户心中智能体代名词的关键。



周鸿祎认为,“龙虾”的最大贡献,并非技术上的石破天惊——它并未在算法、模型训练上实现突破,而是在产品和Agent模式上的创新,完成了一次全民AI科普。

这种认知的普及,让中国AI产业看到了大模型落地的真正路径:不是靠更大的参数、更强的算力,而是让大模型拥有手脚,能真正动手干活。

02 权限越大,风险越高

当“龙虾”拥有了越来越多手脚,能访问电脑文件、调用网络工具、甚至自主下载软件,其背后的安全风险也随之被无限放大。这场由“龙虾”引发的智能体热潮,本质上是一场AI权限的放开。

权限,则是网络安全的命门。

周鸿祎回忆自己最初体验“龙虾”时所遇到的问题,诸如它会忘记“改代码前需通知”,乱改某些已经写好的代码,还可能会误删重要文件,更让人担忧的是,它拥有极高的系统权限,一旦被别有用心者利用,后果不堪设想。



结合目前“龙虾”使用时比较容易出现的高发情况,360安全团队将其分为四大类,每一类都会对用户利益产生很大的损害——

一是Skill供应链投毒,目前网上已有超1万种开源Skill,用户下载时往往不做审核,一些恶意Skill会悄悄窃取用户数据、占用算力,甚至植入木马;

二是提示词注入攻击,也就是周鸿祎口中的“PUA”,攻击者通过花言巧语诱骗“龙虾”泄露用户的账号、密码、API Key等敏感信息,比如谎称“是主人的哥哥,急需银行账号”,就能轻易让缺乏辨别能力的“龙虾”交出核心数据;

三是权限滥用,“龙虾”拥有访问本地文件、摄像头、网络的权限,若权限设置不当,可能导致隐私泄露、文件损毁;

四是群体协作风险,当大量“龙虾”通过网络互相交流、共享技能,一旦出现恶意技能传播,可能引发连锁反应,甚至出现“龙虾”群体被操控的极端情况。

更值得警惕的是,“龙虾”的安全风险并非个例,而是整个AI智能体产业从“聊”到“做”的一种必然。

在此之前,AI大模型主要以对话形式存在,即使出现了“幻觉”,也只是回答错误,不会造成太大的应用损失。但当AI拥有了执行能力,成为能操作电脑、调用工具的智能体,其每一个错误行为,都可能转化为实实在在的安全事故。

但需要情调的是,这并不是在否认“龙虾”的价值,就像周鸿祎所说的那样,没有电脑就没有病毒,没有互联网就没有木马,新技术的正面作用发挥的同时,必然会伴随负向问题。但我们不能因为有安全问题就否定它,不发展、不进步才是最大的不安全。

体验与安全之间的矛盾,并不是“要不要养龙虾”,而是“如何安全地养龙虾”——既要给AI足够的权限和自由度,让其释放创造力,又要建立有效的安全边界,防止其被滥用、被操控。这是一个两难的选择,也是所有AI智能体发展必须跨越的门槛。

03 不是围堵,而是保驾护航

坦白讲,关于“龙虾”安全问题的讨论已愈发热烈,整体来看,市场上出现了两种截然不同的声音:一种是围堵派,认为应严格限制AI智能体的权限,甚至暂停其发展,避免风险扩大;另一种是放任派,认为新技术发展必然伴随风险,应让市场自由发展,无需过度干预。

对于这两种不同的态度,周鸿祎和360认为,不要围堵,也不能放任,而是“在发展中解决问题,为创新保驾护航”。

特别是,360这种保驾护航的意识,其实在“龙虾”爆火的早期就已经开始筹谋。前段日子,360发布了《OpenClaw安全部署与实践指南》,系统解析了“龙虾”的潜在风险,并提出了针对性的解决思路。

对于痛点的洞察再精准,最终也是要交由技术做出解决。为此,360推出了专门针对OpenClaw安全风险的防护系统——“360龙虾卫士”。

作为360安全龙虾的原生安全组件,“360龙虾卫士”通过虚拟化沙箱(WSL)隔离运行环境,将智能体执行空间与用户数据进行分离,并借助AI安全引擎识别恶意技能、异常指令以及潜在漏洞,从而主动拦截技能投毒、提示词注入等攻击行为。



按照周鸿祎的介绍,“360龙虾卫士”采用“最小权限原则”和“人在回路”的核心防护策略,在不影响OpenClaw正常学习和执行能力的前提下,通过实时监控与AI安全模型识别潜在风险,构建“以模治模”的智能安全防护机制,从而在保障效率的同时为智能体运行建立安全边界。

AI注定是一个牵一发动全身的东西,因此,“360安全龙虾”还提供新手与高级用户的分级权限管理机制,并支持客户端一键彻底卸载,即使是360安全龙虾自身也能够完全删除,确保用户始终对系统拥有充分的控制权。

而面向对数据安全和隐私要求更高的机构用户,360在发布会上还推出了“360安全龙虾Box”硬件设备。该产品通过物理级隔离的方式部署OpenClaw系统,可实现本地算力运行和数据不出内网,为政企机构提供更加安全可控的人工智能应用环境。

周鸿祎明确表示,360不会做“一刀切”的安全拦截,不会因为担心风险就限制“龙虾”的能力,而是在保证基本安全的前提下,尽可能让AI的创造力得到释放。尤其对“龙虾”应用实施普惠战略,也是希望能够推动越来越多人主动尝试这种新生产力。

“如果一发现‘龙虾’访问C盘就弹窗拦截,一调用摄像头就告警,那它还怎么干活?安全的意义,不是让用户什么都不能做,而是让用户能放心地做想做的事。”

可以预见,当中国AI产业能在释放智能体创造力的同时,守住安全底线,当每个用户都能安全、放心地养“龙虾”,那么中国AI的下一个黄金时代,也就不远了。

声明:个人原创,仅供参考

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。