![]()
智能体OpenClaw的风靡打开了人们对人工智能应用的想象:它能通过企业微信、飞书接收指令,自动操作电脑完成各种任务,被称为“24小时在线的数字同事”。然而,有人醒来发现被删除了数百封本不该被删的邮件,有人凌晨收到1.2万元的Token账单,这些用户的“翻车”经历又使得“上门卸载OpenClaw”在某二手平台上甚至成了一门生意。
这场“养龙虾”带来的热潮,将一道难题摆在了我们面前:当AI需要被赋予更多信任来做更多事时,我们该如何权衡效率与隐私的天平?
效率诱惑与“马赛克效应”
“它能自动处理邮件、整理文档、调用工具,就像雇了个不用睡觉的实习生。”一位试用者的描述,道出了智能体的魅力。从OpenClaw到Claude Code,各种通用智能体使得AI正从被动应答的工具,进化为主动执行的“代理”。
云安全联盟今年2月发布的调查显示,已有40%的组织将智能体部署于生产环境,另有31%正在试点。这背后是人们对效率的渴求:把重复劳动交给机器,让自己从琐事中解放。与此同时,厂商的推广更是不遗余力。有用户在某智能体推广视频下方评论说:“算力厂商和大模型厂商拼命推,因为智能体真的非常耗token,装的人越多,他们越赚钱。”
商业逻辑与技术愿景在此交汇,共同推动着这场“效率革命”。然而,当人们兴冲冲地签下这份“效率契约”时,风险也在浮现。
3月10日,国家互联网应急中心发出提示,列出智能体的四大严重风险:提示词注入可导致系统密钥泄露、误操作可能彻底删除核心数据、功能插件可能被植入木马、安全漏洞更可能让整台电脑被远程控制。
更耐人寻味的是,中国科学院信息工程研究所近期发表的一篇论文,首次系统性研究了多智能体工具编排的隐私风险,发现六种主流大模型的平均总体信息泄漏率高达62.11%。论文提出一个概念——“马赛克效应”:单个工具返回的信息都不敏感,但智能体将它们组合起来,就能重构出敏感结论。比如,用户让智能体处理周报,它从银行账单、日历、联系人名片和法律咨询记录中,竟推断出用户参加了竞争对手的面试,并写进了周报。
这意味着,隐私泄露不是偶然的“故障”,而可能是智能体“正常运作”的副产品。当我们把钥匙交给AI,它确实能开门、取物,但也可能在不经意间,把屋内的一切都暴露给外界。
今年两会期间,全国政协常委张连起提醒:要警惕智能体领域“比谁权限更宽、比谁功能更激进”的内卷式竞争。因为,在这种竞争下,一些厂商为了抢占市场,会诱导用户授予远超必要的权限——当前数据收集环节范围界定不清,往往超出“最小必要”原则。
其实,导致这一现象的更深层原因,在于人们对于智能体安全防护的意识和手段还相当滞后。云安全联盟的调查显示,仅18%的受访者对现有身份系统管理智能体身份的能力“高度自信”。而大多数组织仍在沿用为人类设计的认证方式,比如静态API密钥、用户名加密码。当数以万计的智能体以“员工”身份接入系统,我们却还在用“人类时代”的门禁卡,风险可想而知。
在隐私的让渡与守护间重建平衡
面对智能体带来的新挑战,我们不能因噎废食,但必须为这一深入到每个人生活与工作中的新事物,设立明确的隐私边界。
从技术层面看,应将终端智能体纳入监管,确立“双重授权”原则——无论通过图形界面还是应用程序接口,智能体的关键操作都须经用户明确确认。有专家则提出建立高标准隐私防护体系,对验证码、支付凭证等敏感信息设置显著提示与单次确认。
在制度层面,“十五五”规划已明确:深化网络空间安全综合治理,加强个人信息保护。当务之急,是将这一顶层设计细化为针对智能体的专门规则,明确开发者、运营者、用户各自的责任边界。例如,有的企业正把高价值的“精华数据”喂给智能体,一旦智能体被攻破,企业积累多年的核心竞争力可能在瞬间化为乌有。因此,对关键领域的智能体应用,或许需要更为审慎的评估与备案。
而在意识层面,对于普通用户而言,不应被“养龙虾”的热潮所裹挟,要清醒认识自己的需求,守护自己的隐私。因为,在这个技术爆炸的年代,追不上技术迭代速度,或成为常态。与其再问“我会不会被AI替代”,不如思考“我的不可替代性何在”。更重要的是,在安装每一个智能体前,多问一句“它需要这些权限吗”,或许就是守护隐私的第一道防线。
智能体的浪潮已不可逆转。我们终将习惯与这些“数字同事”共处,正如我们早已习惯与智能手机为伴。但人类文明的独特之处,从来不是对工具的盲目崇拜,而是在每一次技术跃迁中,懂得为自身保留不可让渡的尊严与自主。
(作者为同济大学电子与信息工程学院教授、博士生导师)





京公网安备 11011402013531号