韩维正 赵文博
![]()
AI生成的“龙虾”示意图。
2026年开春,一只“红色龙虾”悄然爬上了全球千万台电脑的桌面。
这不是餐桌上的美味,而是一款名为OpenClaw的开源AI智能体。因其图标是一只鲜红的龙虾,训练这款AI,就被网友戏称为“养龙虾”。
相较传统AI聊天机器人,这只“龙虾”能做的事多得多:接管键盘鼠标、自动整理文件、起草邮件、填写表格、分析数据……一句话,不仅能“动嘴”回答,更能“动手”执行,俨然一位不知疲倦的数字员工。
于是,“龙虾”瞬间点燃了全球开发者的热情。开源平台GitHub上,其星标数短短数月内突破25万,成为最受瞩目的开源项目之一。
但就在无数人欢呼“生产力革命”到来时,质疑声也越来越多:有人账户里的钱被悄悄转走,有人电脑被黑客远程控制,还有人积累了多年的工作文件被一键清空……中国工业和信息化部、国家互联网应急中心等机构接连发布安全风险预警。
这就形成了一个“龙虾悖论”:想让它做的事情越多,给它的权限必须越大;权限越大,安全风险就越高。这个“悖论”怎么破?记者进行了采访。
安装易,用好难
装“龙虾”,只需点击几下。但真正用好它,却是一道难度不小的综合题。
小水智能CEO孙雪峰是最早一批“龙虾”使用者。第一次使用时,孙雪峰雄心勃勃,“上来就派了一个大活儿”,让“龙虾”比照一个全球知名论坛,从头搭建类似平台。“当它开始一步步向我汇报进展时,我觉得肯定没问题。”孙雪峰说,结果验收时傻了眼:除了一堆空文件夹,什么都没有。
“我当时特别失望。”孙雪峰说,“后来我才想明白,不是‘龙虾’不靠谱,是我没有真正理解它,也没学会怎么使用。”
“这款AI放大的是每个人的原有能力,但不能凭空给人增加能力。”一人公司创业者、声序智能创始人王钰博告诉记者,许多人安装是出于好奇或焦虑,而非明确的痛点需求。她自己也踩过坑:一次让“龙虾”修改代码,却忘了指令“完成后重启服务”,结果卡壳数小时。
“使用者需要对预期结果有清晰判断,再把权限交给AI,否则用户没有及时掰正方向的话,AI就会按自己认为正确的方式走下去,出问题也不知道怎么修。”王钰博说。
如果说“不好用”带来的是挫败感,那么“不安全”带来的则是实实在在的损失。有用户因服务暴露在公网上,且浏览器保存了自己的信用卡信息,导致卡片被盗刷;meta公司的AI安全负责人Summer Yue则曾眼睁睁看着失控的“龙虾”飞速删除了自己邮箱中两百多封邮件。
北京哪吒互娱创始人苏魁坦言,之所以迟迟未敢出手安装“龙虾”,就是顾虑于安全风险:“你想让它帮你做的事情越多,给它的权限就必须越大,万一失控,捅的娄子就越大。”
腾讯云安全副总经理、AI Agent安全中心负责人谢奕智告诉记者,当前龙虾等AI智能体(Agent)主要存在两大典型安全风险:一是系统稳定性风险,AI不可控的行为可能导致系统崩溃;二是核心密钥泄露风险,为保障AI执行能力需授予密钥权限,攻击者可通过诱导式提示词,致使密钥被直接泄露。
缺乏审核的第三方插件(Skills)也是风险重灾区。据国家网络与信息安全信息通报中心通报,对3016个技能插件的分析发现,有336个插件包含恶意代码,占比高达10.8%。
一道清晰的“分水岭”已出现。“养龙虾”成功的用户,大多遵循“最小权限原则”,往往在沙箱中隔离测试,对高风险操作,设置人工确认环节;失败者,则往往对新事物的风险预估不足,一兴奋就交出全部权限,从而陷入被动。因此,决定“龙虾”实际价值的,首先是使用者的安全意识和数字素养。
是帮手,不是万能
“养龙虾”热潮激起的波澜很快超越产品本身,演变成关于AI发展方向的讨论。
力挺“龙虾”的人认为,该产品代表了未来方向。今年全国两会上,全国政协委员、中国科学院计算技术研究所研究员张云泉就表示,现在“养龙虾”创业流行,OPC(一人公司)发展势头很猛,未来大家都要加强学习,使用智能体工具。支持者认为,真正的风险就是错失新技术。
苏魁向记者讲述了自己的“转变时刻”:一次直播演示中,“龙虾”的长期记忆和自主运行能力打动了他,他随即为公司配了两只“龙虾”,一只“主内”充当“主管”,一只“主外”负责每日内容宣发,结果也很好:每日新增10—20名用户,付费用户月增长3—5倍,而每月总成本不过60元。
在苏魁看来,“龙虾”改变的不只是效率,更是单人创业的可能性边界:“人的能量有多大,不取决于有多少钱,也不取决于专业能力多强,而取决于创意能力如何。只要创意够好,再加上一群数字员工配合,就可以做大事业。”
“AI相当于我的多个员工,前端、后端、运营宣发,跟我组成团队。”作为一人公司创业者,王钰博这样描述道。她有多年民乐经验和AI开发背景,用“龙虾”搭建了一个民乐曲谱转换平台。在她看来,AI填平了算法工程师和产品开发者之间的技能鸿沟,可以帮助她推进复杂项目。
也有相对冷静的观点。孙雪峰认为,“龙虾”目前还干不了两类事:一是财务与决策,还需要时间建立新标准、新安全规范,因为人类除了干活能力,还承担法律责任与社会责任;二是任何需要人和人当面完成、带有情感交互的场景,AI还替代不了。
王钰博则认为,“龙虾”能协助的是执行层,判断层依然是人的地盘。她打了个比方:家里买齐了锅碗瓢盆、各式铲子和微波炉,不代表这个人就能成为好厨师。AI是工具,能不能用好,关键在人。
机构的态度更为审慎。目前,北京大学、安徽师范大学、珠海科技学院等多所高校已经发布预警,要求师生关注使用风险,一些高校严禁在处理教学科研数据、行政办公信息等核心场景中使用“龙虾”,有的甚至要求已安装者立即卸载清理。
谢奕智表示:“担忧是对的,但风险并不来源于技术本身,主要集中在权限滥用和恶意插件引入这些环节。关键是做好安全管控。”
不必恐慌,也别盲目
面对“龙虾热”,包括监管部门在内,各行各业都在快速作出反应。
工业和信息化部、国家互联网应急中心分别发布“龙虾”安全风险警示,明确提出“六要六不要”,点明“提示词注入”、“误操作”、功能插件(skills)投毒、安全漏洞等四类严重风险,并提出强化网络控制、加强凭证管理、严格管理插件来源、持续关注补丁和安全更新等相关建议。这体现了监管层对AI新工具“包容审慎”的态度——既不一刀切封堵,也不放任自流。
安全正成为新的竞争维度。“龙虾热”不仅催生挑战,也带来新的市场机会。一些网络安全公司推出针对AI智能体的防护方案,例如腾讯云等已推出AI Agent安全中心,提供插件安全扫描、行为全流程审计、密钥沙箱隔离等安全防护。“现在很多国内企业部署AI Agent,首要问题就是安全性够不够。安全不是可选项,而是必答题。”谢奕智说。
普通人应当如何面对“龙虾”为代表的AI热潮?受访者们给出的建议相对一致:不必恐慌,也别盲目。谢奕智建议,如果日常工作重复性高、偏流程化,可以尝试小范围试点应用AI Agent,严格做好权限管控,循序渐进把风险逐步降到最低;苏魁则表示最好是有长期的AI需求,如果今天想用明天又不用,“龙虾”就不太合适。
总之,真正决定AI工具是“神器”还是“灾难”的,往往是人的认知是否能跟上工具迭代。每一次技术迭代,都是重新平衡效率和风险,也对用户的数字素养、安全意识等提出更高要求。说到底,要让工具创造价值,首先要具备真正驾驭工具的能力。





京公网安备 11011402013531号