当前位置: 首页 » 资讯 » 新科技 » 正文

宇树开源多模态视觉语言大模型UnifoLM-VLA-0

IP属地 中国·北京 编辑:王婷 凤凰网科技 时间:2026-01-29 22:14:35

1月29日,机器人公司宇树科技宣布开源其视觉-语言-动作(VLA)大模型 UnifoLM-VLA-0。该模型旨在解决传统视觉语言大模型(VLM)在物理交互中的局限,通过针对性的预训练,使之从图文理解能力进化成具备物理常识的“具身大脑”。

据官方介绍,UnifoLM-VLA-0 是 UnifoLM 系列下专门面向通用人形机器人操作的模型。其基于开源的 Qwen2.5-VL-7B 模型构建,使用了覆盖通用与机器人场景的多任务数据集进行持续预训练,以提升模型对几何空间与语义逻辑的对齐能力。

模型的核心突破在于针对操作任务的高要求,深度融合了文本指令与2D/3D空间细节,并构建了全链路动力学预测数据以增强任务泛化性。特别地,宇树在模型架构上集成了动作预测头,并对开源数据集进行了系统化清洗,最终仅利用约340小时的真机数据,结合动作分块预测与动力学约束,实现了对复杂动作序列的统一建模与长时序规划。

评估结果显示,该模型在多个空间理解基准上的能力较基础模型有显著提升,并在“no thinking”模式下可比肩 Gemini-Robotics-ER 1.5。在 LIBERO 仿真基准测试中,其多任务模型也取得了接近最优的性能。

在真机验证环节,UnifoLM-VLA-0 在宇树 G1 人形机器人平台上,仅凭单一策略网络即可高质量完成开闭抽屉、插拔插头、抓取放置等12类复杂的操作任务。官方称,即使在外部扰动条件下,模型也表现出良好的执行鲁棒性与抗干扰能力。

目前,该模型的项目主页与开源代码已在 GitHub 平台公布,供开发者与研究人员获取。

标签: 模型 数据 视觉 开源 语言 机器人 宇树 动作 模态 物理 真机 能力 空间 高质量 人形 抽屉 理解能力 局限 深度 鲁棒性 文本 建模 抗干扰能力 指令 科技 常识 小时 动力学 大脑 插拔

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。