具身智能赛道,正站在技术爆发与商业落地的十字路口。
一方面,是万亿级市场的巨大诱惑。从特斯拉的Optimus到各类创业公司的机器狗、人形机器人,资本与技术正以前所未有的速度涌入这一赛道,试图在智能手机和新能源汽车之后,寻找下一个超级终端。
但另一方面,行业仍被迷雾笼罩。目前的具身智能研发,大多陷入了“本体内卷”的怪圈:硬件形态五花八门,但“大脑”却不够聪明。大多数企业仍依赖“人肉遥控”的方式采集数据,不仅效率低下,更难以让机器人学会处理复杂的生活场景。当机器人无法走出实验室、无法在真实情景中落地时,所有的估值都是空中楼阁。
在这一节点,大晓机器人落下了一枚重磅棋子。
12月4日,商汤科技联合创始人王晓刚宣布出任“大晓机器人”董事长。这是商汤“1+X”架构调整后,在具身智能领域的实质性独立运作,意味着其将直面解决具身智能“大脑”缺失的难题。
不同于行业普遍的“机器中心”路线,王晓刚为大晓机器人定下了“以人为中心”的技术范式。他认为,要让机器人拥有通用的智能,不能靠遥控器“教”出来,而要通过穿戴设备记录人类与物理世界的真实交互,把人类的“常识”和“物理直觉”灌注给机器。
在商业模式上,面对是做具身智能领域的“安卓”还是“苹果”的设问,王晓刚也给出了明确的答案。他指出,在硬件尚未标准化的当下,单纯做系统行不通,大晓将坚持“软硬一体”的“苹果模式”,用世界模型去定义硬件,最终交付解决实际问题的产品。
12月9日,南都湾财社记者围绕行业关注的问题与王晓刚展开对话。他直面行业痛点,拆解了大晓机器人的技术路径与未来战略。
![]()
以下是对话节选:
范式重构:跳出“机器中心”的数据陷阱
南都湾财社:上周您正式出任大晓机器人董事长,外界很关注,为什么商汤选择在这个时间节点,通过“大晓”这个独立主体来深耕具身智能?
王晓刚:这基于我们对AI发展阶段的判断。如果说2014年商汤成立时是AI 1.0时代,核心是人工标注;过去两年的大模型是2.0时代,核心是互联网数据;那么现在,我们正在迈向AI 3.0时代——具身智能。
2.0时代的互联网数据虽然庞大,但正在被“榨干”,且它只记录了结果,没有记录物理交互的过程。要让AI进一步突破,必须让它与物理世界交互,产生新的智能。这是一个几十万亿级的赛道,未来机器人的数量可能超过手机,价值体量堪比汽车。
商汤过去擅长做To B软件,但具身智能要求极高的“软硬结合”。通过“1+X”的模式将大晓独立出来,一方面能让我们拥有更敏捷的市场化机制,另一方面能更专注于垂直整合。我们在场景理解上积累了十年,现在是用这套积累去解决机器人落地问题的最佳时机。
南都湾财社:目前行业里做具身智能的团队很多,但似乎普遍面临“泛化难”的问题。大晓提出的“ACE技术范式”和主流路线有何不同?
王晓刚:核心区别在于,是“以机器为中心”还是“以人为中心”。
目前主流的路线是以机器为中心:先造好一个机器人本体,然后让人拿着遥控器去控制它(遥操),采集数据训练模型。这条路看似快,其实走不远。首先是数据孤岛。不同的机器人本体(双臂的、四足的、夹爪的)结构不同,采集的数据无法通用,导致无法训练出一个统一的大脑。其次是能力受限。遥操只能完成简单的“抓取、移动、放置”,无法教会机器人处理像“收拾房间”这种长时序、复杂的任务。
大晓主张的是以人为中心。我们不依赖特定机器人,而是通过穿戴设备和第三视角,直接记录人是如何与世界交互的。 人怎么拿杯子?怎么用力?怎么避障?我们把这些包含了视觉、触觉、力学等多维度的“人类数据”输入给世界模型,先训练出一个懂物理规律、懂人类行为的“通用大脑”,然后再把这个大脑适配到不同的机器人身体上。这才是解决泛化问题的根本路径。
生态定位:不做“安卓”,要做“苹果”
南都湾财社:在与硬件厂商的合作中,大晓更倾向于做一个赋能者的“安卓”角色,还是软硬一体的“苹果”角色?
王晓刚:现阶段,我们更像“苹果”。最终我们需要做集成,输出软硬一体的产品。
为什么不能只做安卓?因为现在的硬件供应链还不够成熟,往往不满足场景需求。 举个例子,我们做机器狗的落地。市面上的狗,摄像头视角很窄,走路看不见红绿灯,甚至主人稍微走偏一点它就跟丢了。如果只做模型软件,给它再好的算法,它也因为硬件缺陷干不了活。 所以,我们必须介入硬件定义。我们会从场景出发,给硬件厂商提供设计规范,甚至在关键零部件上(如全景感知模组)联合开发。
当然,我们不像苹果那样封闭。我们在模型端保持开放,提供基础模型和素材方案;在硬件端,我们联合生态伙伴(包括我们投资的本体公司)共同设计。但对终端客户而言,我们交付的一定是能解决问题的完整产品,而不是一个需要他们自己去组装的代码包。
南都湾财社:您提到了机器狗,大晓在商业化落地场景上是如何规划的?
王晓刚:我们看好三个阶段的落地。短期是四足机器人(机器狗)在工业和巡检场景的规模化。过去机器狗很难用,因为它没有自主导航,需要人遥控。大晓通过搭载“具身大脑模组A1”,赋予狗自主导航和空间智能,配合我们的云端管理平台,可以让狗自主完成巡检、识别违章、甚至听懂语音指令去查看异常情况。这能解决安防领域的刚需。
中期是商业服务场景,比如即时零售的前置仓。未来的物流是“无人车+仓内机器人”。仓内有上万个SKU,靠死记硬背的示教是不行的,必须依靠我们环境式采集的大模型,让机器人具备处理海量商品的泛化能力。
长期则是家庭服务。这是一个巨大的市场,但对安全性和复杂交互的要求极高,需要更长的技术沉淀。
核心壁垒:给世界模型加上“物理定律”
南都湾财社:大晓即将发布的“开悟”世界模型3.0,与Sora以及李飞飞团队的World Labs相比,最大的差异化在哪里?
王晓刚:差异在于对物理世界的真实理解与预测。
Sora本质上是基于视觉的视频生成,它更多是“合成”,通过学习海量视频来猜测下一帧画面,所以经常会出现不符合物理规律的“幻觉”。
大晓的“开悟”世界模型,输入的信息远比Sora丰富。除了视频,我们还输入了相机的位姿、目标的3D轨迹、触觉、力学等信息。
这让我们的模型具备了三个Sora做不到的能力:第一是多模态融合理解。它不仅看到画面动了,还能理解是“谁”让它动的,是受了什么力。
第二是精准预测与操作指导。Sora生成的视频是给人看的,而我们生成的视频是可以指导机器人干活的。接收指令后,模型能预测机械臂下一步该怎么走,这种预测是符合物理因果律的。
第三是动态场景编辑。我们能将场景中的动态目标(如人、物体)独立出来,灵活替换背景或物体(比如把瓶子换成杯子),同时保持物理交互的真实性。
南都湾财社:您认为具身智能何时能迎来像ChatGPT那样的“奇点时刻”?
王晓刚:ChatGPT的爆发源于互联网文本数据的积累达到了临界点。具身智能要迎来同样的时刻,需要两个条件:一是物理维度的持续增加。除了看(视觉),我们要引入更多的传感器去采集力、触觉等物理信息。
二是数据规模的积累。当环境式采集普及,当机器人从实验室走向真实场景,积累的数据量达到互联网级别时,Scaling Law(尺度定律)将在具身领域重新生效。
这正是大晓现在在做的事情:通过新的范式,积累高质量的数据,推动那个质变时刻尽早到来。
采写:南都·湾财社记者 严兆鑫





京公网安备 11011402013531号