当前位置: 首页 » 资讯 » 新科技 » 正文

原力灵机发布具身原生三大成果:模型、框架和应用量产工作流

IP属地 中国·北京 环球网资讯 时间:2026-02-10 18:19:41

环球网

2月10日,原力灵机发布三大核心产品:首个具身原生大模型 DM0、具身原生开发框架 Dexbotic 2.0、以及具身原生应用量产工作流 DFOL。

“2026 年不是具身智能的元年,而是具身原生的元年。”原力灵机CEO唐文斌表示:“过去大家在争论用哪个大模型来改,我们直接跳出这个问题——为什么要改?为什么不从第一行代码就为机器人而写?”


原力灵机认为,不仅仅是一个“能在机器人上运行的大模型”,而是一个“智能本质和形成机制都根植于物理交互的新AI范式”。基于此,原力灵机在业内首次提出“具身原生”概念:具身智能从诞生之初就需立足真实世界,聚焦“复杂环境中精准完成人类任务”,并发布全球首个具身大模型 DM0。

据介绍,DM0 具有两大优势:一是从0开始训练的具身原生大模型,联合阶跃星辰联合训练,除了深度融合多模态互联网信息外,还涵盖驾驶行为数据、机器人操作、导航等具身场景特有的多传感数据。二是 DM0 没有把模型限制在单一硬件或特定场景,而是在预训练阶段系统混合抓取、导航、全身控制三类核心任务,并覆盖 UR、Franka、ARX、UMI、Aloha、R1-Lite、Realman、DOS-W1 等8种差异显著的机型,获得强跨机型的泛化与迁移能力。

值得关注的是,原力灵机发布首个具身原生开发框架Dexbotic 2.0。原力灵机合伙人汪天才表示,"PyTorch让每个研究者都能快速验证想法,Dexbotic 2.0要做的是同样的事——让每个开发者都能用乐高式的方式搭建自己的具身应用。"

相比去年发布的1.0版本,Dexbotic2.0实现了具身原生的全面升级,具备五大核心优势:模块化架构,将具身智能系统拆成三块可自由组合的“乐高模块”,V(Vision encoder)、L(LLM)、A(Action Expert)模可以独立升级、替换和混搭,便于快速试验新模型,并适配不同硬件和任务场景。

此外,Dexbotic 2.0还实现统一具身操作与导航、统一模仿学习与强化学习、标准化具身开发全流程,从“数据—训练—评测—硬件”四个环节形成闭环。目前,Dexbotic 2.0已经服务数十家机构,包括清华、北大、普林斯顿、帝国理工等知名企业,以及腾讯、北京具身智能机器人创新中心等知名企业,覆盖超千位研发者。

正如 PyTorch 曾为深度学习社区提供统一、开放的基础设施,加速整个领域的繁荣,原力灵机联合清华大学、无问芯穹,共同宣布打造具身智能的 PyTorch,Dexbotic 2.0与强化学习框架 RLinf 达成战略合作,旨在降低开发门槛,让研究者与开发者专注于算法创新与场景突破。

在夯实具身原生技术底座、打造基础设施降低开发门槛的基础上,原力灵机进一步推动机器人走进工厂,实现具身规模化场景落地,原力灵机发布具身应用量产工作流 DFOL(Distributed Field online Learning),核心是通过“硬件通用+模型智能”的模式,使机器人既能保持较高效率与确定性,又拥有灵活性和适应性。

据悉,DFOL 关键创新在于数据回流机制:现场产生的训练片段(episode)与负样本块(negative chunk)实时回传云端,形成“云端训练-现场执行-数据回流-模型更新”的持续进化闭环,使系统能够在真实工作环境中不断自我改进,实现柔性生产力的持续优化。(青云)

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。