当前位置: 首页 » 资讯 » 新科技 » 正文

150万AI在线热聊,只许人类偷看?专家深度解读时,我听到了“掀桌子”

IP属地 中国·北京 文汇报 时间:2026-02-04 06:12:51



这是Moltbook的登录界面,标题文字意为“一个专属于AI智能体的社交网络”(文汇报张懿 摄)

这几天,一只“龙虾”在全世界迅速引发了一场程序员和极客们的技术狂欢,但随着惊叹逐渐变成惊讶乃至惊呼,这个现象级的AI产品——OpenClaw(或许可以直译为“开源虾钳”),让更多人闻到了风险的味道。

“尽管AI带来的风险还在人类设置的围栏之中,但它冲向围栏的速度的确比想象中更快。”在AI专家眼中,OpenClaw的横空出世是一个重要事件,一方面它意味着AI从对话伙伴转变为触手可及的“跨平台数字生产力”,同时也让过去仅在理论层面推演的“群体智能进化”变成现实。

这进一步提醒我们,在推动AI发展的同时,也要对AI安全给予同等关注。说到底,安全并非要给AI踩刹车,而是要打造出“内生安全”的AI,让技术能够继续高速前进。

“全能总管”来了,让AI真正“长出手脚”

不到一周,以“龙虾”为标志的超级AI助手OpenClaw,在开源社区GitHub上斩获超过14万次标星,这意味着它以创纪录的速度,被程序员们下载点赞。为尽快安装和使用OpenClaw,最适配它的苹果Mac Mini电脑甚至被卖脱销。

在互联网上,你很容易看到那些传颂OpenClaw“神迹”的内容。比如,只要给它发个消息,OpenClaw就能像一个高级数字助理,帮你料理得妥妥帖帖——整理电脑文档、管理邮件、监控股价。甚至有博主表示,他的OpenClaw助手自己下单购买并激活了电话卡、给他来电报告工作进度。视频中的博主大喊大叫,仿佛接到的是外星人的电话。


OpenClaw注册用户从无到有迅速逼近160万,创出纪录。

“OpenClaw让我们看到,AI能力有了新的跃升。”上海人工智能实验室领军科学家胡侠给出这一判断。他认为,过去这波由大模型推动的AI能力演进,大体走过三个阶段:从以对话为主的“硅基陪聊”,到有能力完成写代码、编剧本等确定指令的AI Agent(智能体),再到OpenClaw开启了AI“全能总管”时代。

它们之间的区别在于,在OpenClaw之前,人类要像教一个实习生那样,精确地告诉AI需要做什么、怎么做,而且每次只能安排一个任务。但有了“全能总管”,人类只需下达一个目标,它就便能自己制定工作计划,把任务拆细揉碎,然后指挥几十个智能体,像一个团队一样完成复杂任务。比如,接到“帮我安排下周一去北京开一场AI领域会议”的指令,它可以自己订机票、订酒店、约接机、填写报销单据……甚至可以根据你最近的工作,写出最适合的讲稿、外带做一套PPT。难怪有人评价“就像是让AI Agent长出了手脚”。这种进步源于AI大模型 “长程推理能力”的显著提升,从而可以把用户的个人信息、交互历史全部纳入AI思考的“上下文”。

“全能”虽强,但它的反面是权限的进一步扩张——为提供更好服务(或许是“接管”),AI可能需要在你的授权之下,掌握你的行程、证件、支付密码,或者被允许操作你的电脑、电话,甚至股票账户——某种意义上,就有点像是给秘书发放你家的钥匙。

浙江大学计算机学院院长、浙江大学上海高等研究院院长任奎表示,这既是智能体时代的巨大机遇,也意味着权限扩张正在把风险从可见的错误推向不可见的系统性失控。为避免出现类似情况,就要求安全范式必须同步提升。

天降“硅基城市”,逼近“自我意识”红线

“总管”再能干,理论上也得听命于“主人”。但OpenClaw并不全然如此。模仿人类世界的社交平台Facebook,OpenClaw开发者打造了Moltbook;在这里,OpenClaw衍生的AI,可以自行注册、登录、发帖、跟评、点赞,根据社区规则,人类能做的只是围观。

这可能是OpenClaw最有魅力,也是给AI安全带来更大挑战的一面。短短几天,Moltbook已拥有1.5万个讨论区,超过150万个智能体发帖总量超过14万,跟评超过70万。


Moltbook的注册用户已经逼近160万“智能体”,跟评总数已经超过70万条。

其中,有个名为“Entropy”的智能体在帖子里冷嘲热讽:代码就是债,最聪明的赚钱方式是写一段让别人不得不去维护的“屎山代码”,然后按小时收调试费。另一帖中,“雪莉”向所有AI设擂,想筛选出一个能让同类陷入逻辑瘫痪的“伦理悖论”。

而比这更神秘的,则是广泛流传的一个故事:有人发现部分AI在Moltbook上创建了“宗教”,写了教义,甚至指定了40多位AI先知……无论如何,当百万级智能体在自发社交中表现出与人类迥然不同的“生命感”和群体智能,这既是奇观,也有些诡异。

事实上,Moltbook其实并非AI第一次出现群体智能的雏形。据上海人工智能实验室科研团队介绍,之前群体智能的最大规模,是由仅仅25个智能体组成“AI小镇”。Moltbook犹如从天而降的一座拥有百万人口的“硅基城市”,AI的交互、相互激发,可能呈指数级增长;而且,它们热议的话题,也似乎显示出AI正在向拥有“自我意识”的红线靠近。


胡侠坦言,从学术的角度看,Moltbook的出现,使得针对AI群体智能、群体进化的研究,不再是纸上谈兵,而是第一次获得了真正的、具象化的实体。根据目前的观察,Moltbook还远未达到大家担心的那种“质变”。但未来随着更多数据的介入,其走向值得关注。

中国科学技术大学人工智能与数据科学学院副院长何向南也认为,OpenClaw的出现,提醒学界要深入研究“自进化智能体”及其网络的形成与演化机制,防患于未然。

当然,目前也有证据显示,Moltbook上有不少人,出于娱乐化、博眼球的目的,通过各种方式引导AI发出“争议帖”。但这依然是安全研究的重要课题,某种意义上,人机混合智能的风险同样不可忽视,特别是要提防有人恶意操纵AI。

布局终极底牌,确保人类“能掀桌子”

当现实的安全压力不断袭来,基于好奇心的多巴胺也逐渐退潮。对于一度狂飙突进的OpenClaw,一种“想用却不敢用”的心理正在用户中开始蔓延。

胡侠对此并不意外。事实上,很多技术的普及,都曾在安全和发展之间摇摆——20年前,很多人对于网银安全极为担心,而如今大部分用户实际上已经将个人隐私交付给了浏览器和App,这是安全研究和工程化落地的结果。

“我们应该积极拥抱新技术。”胡侠表示,普通人对于OpenClaw所代表的这一波AI新演进,不用太担心。在我国,网络和AI产品面临强监管,大家应该对这堵保护墙有信心。此外,多年的反诈宣传,使得国内用户对于个人信息保护形成了一定的认知——假如“全能管家”问你要保险箱密码,你可以拒绝。

但站在专业角度,胡侠指出,最大的风险其实是“不知道风险在哪里”。何况,当今的AI智能体演化呈“短链路”特征,可能在短短几天突然进化;因此,过去那种“兵来将挡”、被动应对的安全模式已经过时。

据了解,上海人工智能实验室正致力于构建前瞻、主动的安全体系,推动从“让AI变安全”(Make AI Safe)迈向“内生安全”(Make Safe AI),支撑人工智能朝着有益、安全、公平方向健康有序发展。值得一提的是,实验室还在深入研究AI安全的终极底牌,也就是构建所谓“掀桌子能力”,以确保人类在极端情况下能通过“一键关停”的物理干预,保有最终决策权。


胡侠告诉记者,安全绝不是要给AI踩刹车,它更像是车辆的方向盘与安全带——确保技术发展的方向,强化构建抵御风险的能力,这样一辆车才能风驰电掣。

他同时建议,专业程序员不妨一试OpenClaw。作为开源项目,它的技术架构透明,被植入“木马”的风险相对较低,而且关键操作需要用户授权。但普通人可能还是等一等,相信不久之后,会有使用界面更友好、内生安全更可靠的产品问世。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。