在机器人向“具身智能”全面迈进的今天,如何让钢铁之躯拥有像人类一样灵敏的“触感”,成为了突破精细化操作瓶颈的关键。2026年1月26日,国地中心联合纬钛机器人正式发布了全球首个、也是目前规模最大的跨本体视触觉(Vision-based Tactile Sensor)多模态数据集——白虎-VTouch。这一数据集的诞生,不仅填补了机器人视触觉交互领域的空白,更为全球机器人开发者提供了一座高价值的数字矿山。
全球最大规模:60,000分钟的“真实触感”
不同于以往单一、碎片化的实验数据,白虎-VTouch 在规模和完整性上实现了量级跨越:
数据体量惊人:数据集规模超过60,000分钟,包含约9072万对真实的物体接触样本。
全维度覆盖:整合了视触觉传感器数据、RGB-D 深度数据以及关节位姿数据,实现了多模态信息的深度对齐。
高精度记录:其搭载的传感器支持640×480分辨率与120Hz 高刷新率,能够捕捉到接触过程中极细微的物理变化。
跨本体范式:从“青龙”到“手持终端”
该数据集最核心的突破在于其**“跨本体”**的采集特征。它打破了单一设备的数据孤岛,涵盖了多种主流机器人构型:
人形机器人:以全尺寸人形机器人“青龙”为代表的复杂动力学构型。
类人形轮式:涵盖了 D-Wheel 等灵活的轮臂复合型机器人。
智能终端:甚至包括了手持式 pika 夹爪等智能终端设备。
这种跨本体的覆盖,意味着开发者训练出的算法将具备更强的通用性,能够让不同形态的机器人快速“习得”相似的感知能力。
“矩阵式”任务:让机器人走进烟火气
为了让 AI 真正解决现实问题,白虎-VTouch 围绕四大真实应用场景,构建了极其系统化的任务矩阵:
家居家政:应对复杂的家庭环境交互。
餐饮服务:精准处理易碎、柔性物体的抓取。
工业制造:在精密组装环节实现力控调整。
特种作业:在极端或特殊环境下的精细化操作。
该任务结构涵盖了100多个原子技能和260多个接触密集型任务。研究数据显示,在引入视触觉感知后,68% 的任务获得了更完整、连续的接触状态描述,这对于机器人实现失败恢复和精准力控具有决定性意义。
随着 白虎-VTouch 相关研究成果与数据集说明的陆续开放,全球机器人产业或将迎来一波“感知觉醒”的浪潮。当机器人不再只是靠“看”来摸索世界,而是能通过“触碰”来理解物理法则,具身智能的未来才算真正触手可及。





京公网安备 11011402013531号