当前位置: 首页 » 资讯 » 新科技 » 正文

IROS 2025现场直击:AC2发布获顶尖学者团认可 机器人之眼迎来突破性进展

IP属地 中国·北京 智通财经 时间:2025-10-21 20:09:40

智通财经APP获悉,在国际智能机器人与系统大会(IROS 2025)期间,RoboSense速腾聚创(02498)在杭州举办“机器人之眼”主题沙龙,正式发布Active Camera全新力作——“机器人操作之眼”AC2。


RoboSense创新事业部总裁王鹏分享了机器人之眼的行业趋势与领先技术突破,激光雷达事业部副总裁杨先声博士全面介绍了AC2的性能优势与亮点特性。圆桌论坛环节,孙富春、朱延河、李清都、李淼四位学者聚焦“机器人的认知突围与产业前景”主题展开前沿探讨。

行业唯一大面阵dToF能力打造毫米级融合感知

王鹏表示眼睛是机器人感知的核心,3D视觉深度信息获取,一度是机器人眼睛的技术瓶颈。双目视觉、单目视觉以及基于主动发光的结构光和ToF,都是行业主流的深度感知方案。其中,dToF具有测距能力最强、抗干扰最强、算力要求最低的优势,而面阵dToF,进一步弥补了传统dToF在成本、近距离精度方面的短板,成为机器视觉深度测量最优的解决方案。


此次发布的AC2,正是RoboSense基于面阵dToF技术突破的集大成之作。AC2定位于机器人操作之眼,是业内首款dToF+RGB双目+IMU一体化超级传感器系统,可灵活输出融合或独立的深度、图像与运动姿态精准数据,感知效果全域整齐清晰。RoboSense行业领先的芯片级硬件同步控制技术,能保证AC2在大部分场景下深度与图像信息的高度时空对齐,同步精度达1ms,从根源上确保融合感知的质量和应用效果。


毫米级感知高精度

受困于感知精度的不足,目前大部分机器人的可操作性仍停留在初级阶段,全场景全工况下的高精度感知成为扩展机器人操作范围的必备前提。RoboSense基于硬件底层的数据融合和同步,从多个层面保证AC2的极致精度:

重新设计全固态面阵dToF深度感知方案,突破3D视觉传感器精度随距离变化的行业痛点,使AC2可实现8m内全域±5mm的毫米级感知精度;

集成的双目视觉系统,进一步增强AC2在1m内超近距离下的深度精度表现;

提供1600x1400的高分辨率RGB相机,在深度信息的基础上补充超清色彩图像信息,加强AC2融合感知信息的精细度。

超大FoV与小型化的极致设计

为确保机器人操作的效率,AC2也将FOV做到目前3D视觉传感器领域中的最大范围,无论是融合感知还是单一传感器视角,均能提供120°×90°超大视野,让机器人一次“看”到更多操作物,避免因调整视角而频繁进行扭头、俯仰等动作带来的额外误差。


尺寸上,100mmx30mmx45mm(L×H×D)的小巧设计,让AC2可以灵活装载在人形机器人脸部、机器狗头部、机械臂末端等狭小空间内,让各类机器人的操作安全又高效。


高稳定可靠性,抗环境光干扰

高可靠性也是确保机器人操作应用的关键。基于dToF深度感知方案,AC2拥有优秀的抗环境光干扰能力,在弱光、强光、明暗交替等复杂光照场景下表现稳定,即便面对100klux的强光环境,依然保证精度不变。同时,AC2基于车规级设计,满足IP65防尘防水等级,工作温度范围-10°~55°。AC2采用GMSL2接口和FAKRA连接器,可提供比USB接口更稳定的连接,在有效防止连接中断的同时,提供更高的传输带宽,确保机器人感知链路稳定顺畅运行。


搭载AC2的机器人可实现全场景全工况下的高精度大范围感知。不仅能轻松执行对牙刷、衣架等细小物体,以及玻璃、金属等高反射率物体的感知和操作,也能在机器人进行大幅度动作时,保证融合感知图像不畸变,助力机器人解锁更多操作应用。

AI-Ready生态,开箱即用的开发者服务

为更好服务机器人的开发需求,RoboSense在推出AC2硬件之外,同步更新AI-Ready生态,新增姿态估计、人体骨架识别等适配AC2使用场景的开源算法。AI-Ready生态是Active Camera的重要组成部分,包含AC Studio工具套件、Wiki文档和多场景数据集等全套开源资源,为开发者省去琐碎工作,提升开发速度。


AC2协同AI-Ready生态,将解决目前机器人传感器堆叠及重复开发问题,成为机器人操作应用的最佳感知方案。在工业、物流、家庭服务机器人等成熟领域,AC2可加速其商业化发展节奏,提升操作效率,解锁更多应用场景;在具身智能机器人、数字孪生等高潜发展领域,AC2将推动其功能验证及应用落地,释放更多想象。

专家共识 感知变革是机器人突破关键

圆桌论坛环节,学术专家围绕机器人视觉感知的技术演进、当前技术瓶颈、投入资源抉择、泛化能力提升等方面展开研讨。多位学者对RoboSense机器人之眼、AC2发布及其应用潜力表示赞许与期待。


在清华大学计算机科学与技术系教授、智能技术与系统国家重点实验室副主任孙富春教授看来,让机器人在与物理世界产生沉浸感的环境中去学习,RoboSense机器人之眼显得格外重要。当前,机器人视觉感知面临诸多挑战,包括如何适应动态环境变化、如何准确采集完整数据、多传感器协同建模、校准误差、计算效率等。RoboSense机器人之眼,通过一体化集成多传感器,形成硬件与软件的综合技术体,可以有效解决这些问题,尤其在人形机器人、工业物流等领域,将有很大的应用潜力。


哈尔滨工业大学机电工程学院教授、博导、机器人技术与系统全国重点实验室副主任朱延河教授认为,回归到自然科学的本源,实际上,人类的眼睛从性能或功能层面可能还不如动物的眼睛。其认为,具身智能机器人不应受制于我们对人类眼睛的理解,而应该打造超越人类眼睛的感知能力。某种意义上,Active Camera也是一种“Super Eye”,融合了摄像头、激光雷达等多个传感器。在人工智能时代背景下,RoboSense这种多传感器融合的产品能力,已经超越了海外同行,走在了创新的前端。


上海理工大学机器智能研究院执行院长、中豫具身智能实验室执行主任李清都教授结合其团队研发的“行者二号”、“行者三号”人形机器人的最新进展,展开洞见分享。其认为,AC2的多传感器一体化集合设计非常不错,只需要一台AC2,就能解决机器人感知、算力消耗和通用适配等问题。“AC2的融合FOV达到了120°,这个大视场角高度适配大场景,非常契合我们的需求,同时它还具有室内外的强适应、高运行能力,无惧环境光干扰。”


武汉大学机器人学院教授、博导李淼教授则套用行业常用的一句话来表达对机器人眼睛技术沿革和AC2应用潜力的思考。“‘一代硬件,一代算法,一代机器人’,当RoboSense定义的机器人之眼问世后,一定会有新的算法生态出现,以支持机器人的复杂应用。我相信AC2将有可能迭代成长为‘超级物种’——一个超越人类眼睛的感知系统。融合RoboSense构建的AI-Ready生态及其开放的算法SDK,如果与中国机器人硬件公司合力,将能切实解决具身智能多场景应用的难点。”


凭借芯片断代式领先技术优势及丰富激光雷达产业化落地积累,RoboSense重磅推出机器人视觉新品类Active Camera系列产品。AC2的面世,让Active Camera形成完整的机器人感知产品组合,覆盖机器人移动及操作两大核心任务需求。

RoboSense将持续为机器人产业规模化商业落地打造最佳感知技术基座,与全球用户一起,共同探索智能机器人的无限可能。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。