当前位置: 首页 » 资讯 » 新科技 » 正文

全民养虾,为什么是中国

IP属地 中国·北京 编辑:孙明 观察者网 时间:2026-03-10 18:11:43

3月的一个工作日,深圳南山区腾讯总部大厦北广场,排起了长队。

有人抱着NAS,有人拎着迷你主机,还有人掏出MacBook——他们是来让腾讯工程师帮忙装一个叫OpenClaw的开源AI智能体的。预约号上午11点就抢光了,队伍里有程序员,也有小学生。抖音上,“全民养龙虾”的短视频刷屏了。这场景像极了十年前安卓刷机的极客聚会,但又不太一样——这次,普通人也挤进来了。

这并不是腾讯在搞一场行为艺术。同一时间,阿里在推“OpenClaw一键上云”,小米宣布把自家的MiclawAgent塞进手机、汽车、电视里,智谱、MiniMax这些模型厂商也纷纷跟上。OpenClaw在GitHub上的星标,三周破了25万,超过了Linux三十年的积累。一个绕不开的问题冒了出来:为什么是现在?为什么是中国?为什么所有巨头都这么急?

一台永不停歇的算力抽水机

要搞懂这场“龙虾风暴”到底在刮什么,得先看一组让人睡不着觉的数字。

2026年,字节、阿里、腾讯三家加起来,预计要花超过600亿美元——绝大部分砸向了算力。成千上万张AI加速卡被拉进数据中心,但如果没人调用,它们每天就在那烧钱。它们是沉默的、在燃烧现金的机器。

过去两年,大模型的主流玩法是“聊天”:你偶尔让它写封邮件、画张图,消耗的Token很少。这种轻度使用,根本填不满那些算力集群的运营成本,更别说从习惯免费的普通用户身上赚钱了。巨头们急需一个能持续、自动消耗算力的“Token黑洞”。

OpenClaw,正好长在了这个需求上。你给它一个复杂指令,它不会只回你一段话,而是会拆任务、联网搜、调软件、纠错、重试——每一步都在向云端发请求。一个复杂任务跑下来,Token消耗量是普通对话的百倍甚至千倍。

有AI行业分析师告诉心智观察所,国产模型被OpenClaw大量采用,核心原因就是性价比——比海外便宜得多,调用起来不心疼。便宜,就直接转化为更高频的调用,和更可观的现金流。

这也就解释了,为什么腾讯愿意倒贴人力去线下“摆摊”。每一次部署,都是在用户的电脑或云端里,埋下一台24小时运转的“算力抽水机”。不管前端跑的是什么模型,只要推理和工具调用的API指向自家云服务,那些微小的请求,最终都会汇聚成真金白银。

OpenClaw关键发展里程碑与功能演进图(@心智观察所制图)

一组更直观的数据能帮我们理解这波操作的经济账。

OpenClaw的重度用户,日均Token消耗量在3000万到1亿之间。如果用Claude Opus 4.6算,一天的费用在900到3000美元;就算用国产的MiniMax M2.5,也要42到140美元。这远远超出了ChatGPT那种对话场景——后者的月费也就20美元,而一个活跃的OpenClaw实例,一天就能吞掉上百倍的Token。

如果未来一两年,有100万个OpenClaw实例跑通商业模型,哪怕只是勉强回本,也会新增约3600亿美元的Agentic AI算力市场。这个数字,足以重塑整个半导体产业链的供需格局。换句话说,AI的商业变现,不再靠“让更多人聊天”,而是靠“让更少的Agent持续做事”。Token经济学的底层逻辑,正在从低频、低量的人机对话,转向高频、高量的机器自主执行。

数据饥渴:轨迹数据的隐秘战场

越过现金流,巨头们力推本地Agent,还有一层更深远的战略意图:争夺下一代大模型进化所需的核心燃料——任务轨迹数据。

过去几年,大模型竞争的核心是算力和训练数据。但业内有个共识:互联网上高质量的公开文本——维基、新闻、论文——已经被各家模型“吃”得差不多了。如果继续只喂这些静态文本,大模型只会变成一个更博学的“书呆子”,却迈不进真正能行动的AGI门槛。下一代模型需要的,是人类在数字世界里“怎么做事”的数据——也就是“任务轨迹数据”。

这种数据记录的是一条完整的任务链路:从理解需求到搜信息,再到调工具、填表单、完成支付,每一步都留下痕迹。对训练Agent模型来说,这种数据比普通文本值钱得多,因为它反映的是现实世界里的行动逻辑和因果推理。而这,恰恰是巨头们过去最难搞到的数据——它们藏在无数个割裂的软件、封闭的App和企业内网深处,就算搜索引擎的爬虫再厉害,也爬不进去。

部署在用户终端的OpenClaw,就是深入这些数据腹地的“探测器”。当你让Agent替你操作时,它会忠实地记录每一个操作意图和软件交互轨迹。更关键的是,你在指导它、纠正它错误的过程中,其实是在免费为厂商提供最高质量的强化学习数据。OpenClaw中国社区经理Alan Feng说得挺实在:“用户装完往往期待魔法般的自动化,但真正的价值在于定义清晰的任务。轨迹数据的反馈能让模型不断优化,厂商才能持续提升代理能力。”

这场分布式的“数据众包”,和特斯拉通过几百万辆电动车收集路况数据反哺FSD算法的逻辑如出一辙。阿里Qwen项目的一位内部人士也坦言:“中国领先新范式的概率低于20%,但通过Agent轨迹数据,能快速迭代模型、缩小差距。”谁掌握最多的轨迹数据,谁就能率先训练出真正“长出手脚”的超级模型。

OpenClaw是个全球性的开源项目,但在中国的热度远超其他市场。这不只是偶然。中国有全球最大的开发者社区之一,对开源工具的接受度和传播速度极快。更重要的是,中国的大模型生态形成了一种独特的“低价API”格局:国产模型的API调用价格,大约是海外同类产品的六分之一。这背后,是国内推理算力成本的结构性优势——包括更便宜的电力、更灵活的硬件配置(有的厂商甚至用消费级的5090显卡跑推理),以及模型厂商之间激烈的价格战。

这种低成本结构,让OpenClaw在中国的运行成本远低于海外,也吸引了大量用户涌入。当部署几乎零成本时,普通人对错失AI大潮的焦虑感被彻底点燃。从深圳公务员的“龙虾上线”到抖音上的全民刷屏,OpenClaw的传播路径已经越过了技术圈,演变成一场全社会层面的AI启蒙运动,把公众认知从“AI搜索”推向了“Agent执行”。

与此同时,国产模型的“Token出海”也在加速。OpenRouter最新数据显示,国产模型的Token消耗占比,已经从2024年底的2%飙到了39%。出海策略不是靠海外基础设施,而是把推理算力留在中国,走蒸馏数据和低价API路线——推理对带宽要求不高,延迟感知也不明显。这种“算力在国内、服务在全球”的模式,正让中国AI产业链在全球Token市场中占据越来越重要的位置。

“推理2.0”:GPU与CPU的架构重构

如果说OpenClaw在应用层掀起了一场Agent风暴,那它在底层硬件架构上引发的冲击波同样剧烈。问题的核心在于:传统GPU的设计逻辑是为“训练”优化的——追求大规模并行计算、高显存带宽、集群互联能力。但Agentic AI的推理负载,和训练完全不同:它是高并发、小批量、持续运行的。Agent不是一次性吞吐海量数据,而是不停地接收小请求、做小决策、调外部工具、等反馈,再进入下一轮推理循环。这种“碎片化推理”的模式,让GPU在高并发场景下没法满负荷跑,运行效率只有20%到50%,存在严重的算力浪费。

英伟达显然已经看到了这个结构性缺口。2026年,该公司花200亿美元收购了Groq的核心资产,拿到了LPU和TSP推理架构的非独家技术授权,还带走了Groq创始人Jonathan Ross(TPU之父)和约90%的核心团队。如果说GPU是“通用高性能AI工厂”,那LPU就是“为推理产线定制的流水线”。LPU的引入,是英伟达在Agentic AI时代补齐推理性价比短板的战略武器,它将在推理领域和各种ASIC芯片正面竞争。

另一个值得关注的信号,是英伟达的Vera CPU平台。官方文档里,Vera被定位为“agentic推理的数据引擎”,而不是传统意义上的Host CPU。它的设计目标之一,是“让GPU始终满负荷运转”,它被强绑定到KV Cache管理、工作流编排、AI工厂控制平面这些Agentic AI特有的新型负载上。meta在2026年2月的合作公告里透露,双方已经在推进大规模Grace-only部署,并合作推进Vera CPU的潜在大规模部署。这意味着,在Agent时代,CPU不再只是GPU的附庸,而是成为推理流水线里独立承载调度与数据流转的关键节点。

从更宏观的视角看,英伟达每一次推出新产品,都是因为现有产品没法精准覆盖新需求。从HBM解决高显存需求,到十万卡集群满足训练规模,到NVL72回应开发者编译需求,再到CPX架构实现推理的PD分离——每一次迭代都在确认一个新的需求方向。而2026到2027年间最大的新需求,正是OpenClaw掀起的Agentic AI浪潮。LPU加Vera的组合,标志着芯片产业正式进入“推理2.0”时代——从追求峰值算力,转向追求推理吞吐的极致效率。

“入口战争”的第四次轮回

回头看中国互联网的历史,每一次技术范式的跃迁,都伴随着一场入口战争。门户时代争首页流量,搜索时代百度成了信息入口,移动互联网时代微信、支付宝和抖音成了超级App。现在,AI Agent正在开启第四次轮回。

Agentic AI(代理型 AI)与传统 AI 之间的核心区别(@心智观察所制图)

阿里千问在推“AI办事”,让用户一句话就能下单;小米把MiclawAgent深植手机底层系统,试图让手机、汽车、电视和家电都成为AI的执行节点。这些动作传递出一个清晰的信号:未来,用户和数字世界的交互界面,会被彻底重构。当你习惯了用一句话表达需求,操作路径就会发生根本性变化——你不会再主动打开某个App,而是把任务交给AI,由AI决定用哪个平台、调哪个服务、走哪条支付链路。App还在,但已经退化成服务节点;真正的入口,是那个帮你完成任务的Agent。

更深层的博弈,在于“意图分发权”。如果巨头能让自家Agent霸占用户终端,它就掌握了商业世界最顶级的权力——可以把外卖订单导给关联企业,把差旅需求导向自己的支付生态。在这个由Agent构建的新“围墙花园”里,曾经不可一世的超级App,可能沦为只提供底层服务接口的“管道”,失去和用户直接对话的机会,也失去品牌溢价和流量溢价。这就是为什么大厂对Agent这么敏感——所有人都想成为那个控制Agent的平台。

从技术史看,每一次平台级的变化,往往都从一个不起眼的开端开始。Android最早只是极客刷机的系统,微信公众号刚出来时只是个简单的内容工具,小程序推出时更像一个轻量网页。但它们后来都变成了新平台。OpenClaw今天的处境,和这些早期产品有着惊人的相似——它看起来还粗糙、不稳定、需要用户手动纠错,但它代表的方向已经不可逆转:AI正在从“会说话的工具”变成“会做事的系统”。

这场变革的投资主线也逐渐清晰:云部署基础设施的扩张、推理算力硬件的迭代、国产AI芯片的加速适配、端侧设备的智能化升级、应用集成生态的重构,以及AI安全体系的建立。上游MaaS业务的爆发,正在让算力供给显著供不应求,拿卡能力和能耗指标,已经成为竞争力的核心衡量标准。

对于中国而言,OpenClaw风暴的深层次意义,是一场全社会层面的AI认知跃迁,是大模型从“比谁更聪明”进入“比谁能做事”的分水岭,是算力投资从“囤而不用”转向“持续变现”的拐点,也是芯片架构从“训练为王”转向“推理为先”的信号。当几百万个Agent在全球的电脑和手机上昼夜不停地燃烧Token、收集轨迹、执行任务,我们所面对的,不再只是一个新工具的流行,而是整个数字世界运行逻辑的一次深层重写。

中国互联网正在经历的,也许正是这场风暴的前夜。而风暴一旦到来,没有人能置身事外。

标签: 数据 中国 模型 算力 用户 核心 轨迹 世界 任务 手机 国产 腾讯 工具 时代 互联网 数字 心智 成本 逻辑 入口 芯片 观察所 全球 架构 深圳 底层 关键 开源 厂商 养虾 龙虾 路径 平台

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。