4月19日,在2026北京亦庄机器人半程马拉松赛事现场,阿里巴巴旗下高德地图正式抛出具身智能领域的重磅突破:全球首个面向AGI的全栈具身技术体系ABot重磅发布,同步完成全球首款开放环境全自主具身机器人“高德途途”的实战首秀。这款四足机器人在现场成功协助视障人士完成复杂避障、人群穿行、动态路径规划等高严苛度实战任务,一举打破了具身智能长期以来“实验室验证完美、真实场景落地困难”的行业魔咒,彻底打通从技术研发到实际应用的最后一公里,标志着中国具身智能正式迈入开放环境规模化落地的全新阶段。
高德途途能够从容应对导盲这类对安全性、精准性、适应性要求极高的场景,其底层核心支撑正是高德全新打造的ABot全栈具身技术体系。该体系并非传统技术的简单堆叠,而是基于上万种真实生活场景、千万级多模态Clip数据,将高德沉淀十余年的空间智能资产高效转化为具身智能核心训练资源,打造出全球首个以AGI为终极目标的全栈具身技术闭环。截至目前,ABot系列模型已在全球15项权威基准测试中斩获SOTA(当前最优)成绩,用硬核数据坐稳具身智能领域的技术领跑位置。
在全球具身智能行业陷入研发瓶颈的当下,传统技术路线普遍存在“单点拼凑、封闭验证”的碎片化问题,企业大多聚焦单一功能优化,难以形成体系化能力,同时面临数据稀缺、仿真鸿沟、技能泛化三大核心痛点,导致机器人只能在实验室特定环境下运行,无法适配复杂多变的真实开放场景。高德ABot体系从底层架构重构,彻底摒弃传统碎片化研发路径,以AGI为核心导向,首次将数据引擎、基座模型与执行中枢深度耦合为统一系统,采用数据-模型-应用三层飞轮式闭环设计,实现“数据驱动模型、模型服务应用、应用反哺数据”的自我进化逻辑,精准击穿行业三大瓶颈,构建起持续自我迭代的完整技术生态。
这一飞轮设计的核心逻辑,直接沿袭自高德深耕多年的空间智能飞轮体系。依托近10亿月活用户在真实世界中产生的海量时空数据与实时行为反馈,ABot体系的算法能够在闭环中持续快速迭代,模型对物理世界的认知深度与广度不断提升。这套飞轮无需人工干预,每日在真实场景中自动演进,形成了高德独有的体系化优势——不依赖单一技术点的突发突破,而是依靠技术飞轮在真实场景中的持续运转速度,构建起难以复制的技术壁垒,这也是ABot能够快速实现15项SOTA的核心原因。
数据层:ABot-World三大维度全球第一,弥合虚拟与真实鸿沟
数据是具身智能的核心“燃料”,直接决定了机器人泛化能力的上限。与大语言模型不同,具身智能的真机数据采集难以规模化,成本呈指数级攀升,成为行业发展的核心掣肘。作为ABot体系的底层仿真基座,ABot-World是全球首个将物理定律深度嵌入生成全流程的可微分、可进化动力学引擎,从根本上解决了传统世界模型“视觉幻觉”、动力学与真实物理世界脱节的难题,彻底打通“虚拟训练-真实部署”的最后闭环。
架构层面,ABot-World专为具身智能定制14BDiT架构,以观测数据与动作指令为输入,在潜空间直接生成符合时空动力学的未来状态序列,结合千万级真实数据与多层级采样治理,突破单一任务的泛化限制,让模型具备应对未知场景的能力。场景构建上,其搭载3DGS冷启动空间基座,仅需手机拍摄、航测图等稀疏输入,就能通过“粗建模、高保真修复、蒸馏回环”的自动化流程,将低质量视频转化为厘米级高精度3D场景,大幅拉低数据生成成本,让大规模场景复刻成为可能。
训练技术上,ABot-World首创Diffusion-DPO物理偏好对齐框架,由VLM生成物理规则清单并独立完成判别,构建优劣样本对驱动模型主动抑制违反物理规律的行为;同时融合拉格朗日动力学与3DGS重建技术,让每一帧画面都成为包含质量、摩擦、接触力等完整物理属性的可微分物理快照,让虚拟训练完全贴合真实世界规则。此外,ABot-World构建“训练+数据”双引擎并行架构,依托高德自有地图与脱敏数据实现厘米级场景重建与光照一致性,目前已累计生产万级3D真实场景、百万级推理数据与千万级训练轨迹,覆盖99%的典型生活场景。
在PBench、EZSbench、WorldArena、AgibotWorldChallenge等全球主流具身智能评测中,ABot-World持续领跑全球,成为唯一在物理合规性、动作可控性、零样本泛化三大维度均达到SOTA的世界模型,为上层机器人导航、操作能力提供了最坚实的底层支撑。
模型层:ABot-N&ABot-M运动双核,斩获11项SOTA
如果说ABot全栈体系是具身智能的“运行大脑”,那么ABot-N与ABot-M就是支撑机器人行动的“运动双核”,分别掌管机器人的“导航双腿”与“操作双手”,精准响应物理世界中“去哪里”与“做什么”的核心指令。两款模型采用统一架构设计,可解耦可协同,一举突破跨形态适配、跨任务泛化的行业技术瓶颈,累计斩获11项权威基准SOTA,成为具身智能模型的标杆。
ABot-N是全球首个实现五大核心导航任务“大一统”的VLA基座模型,具备意图理解、自主决策与持续进化能力,是高德途途走向开放世界的核心导航引擎。其采用层级式“大脑-动作”架构,通过多模块协同实现单一模型全覆盖所有导航任务,彻底打破传统专用导航架构的泛化天花板。发布后,ABot-N迅速在VLN-CE(R2R/RxR)、HM3D-OVON、EVT-Bench等7大权威基准上全面刷新SOTA纪录,在导航精度、社会合规性、零样本泛化能力上实现断层式领先,让机器人在人群、城市、复杂地形中都能像人类一样灵活导航。
ABot-M则是全球首个统一架构的具身操作基座模型,实现“一个通用大脑适配多种机器人形态”,大幅提升操作模型在异构机器人、多场景任务下的泛化能力。其首创全球首个动作流形学习技术,将学习目标由去噪重构转为流形投影,显著提升动作生成的稳定性与解码效率,在高自由度全身控制等复杂场景中展现极强可扩展性;感知端采用语义流和动作流双流并行架构,大幅提升精细操作的执行精度。
在LIBERO、LIBERO-Plus、RoboCasaGR1、RoboTwin2.0等主流操作评测中,ABot-M全面超越π0.5、UniVLA、OpenVLA-OFT等行业强基线,在泛化能力、鲁棒性与跨形态迁移三个维度实现系统性领先。
不仅如此,ABot-N、ABot-M的多项子成果成功入选ICLR、CVPR、ICML、ECCV等全球AI顶会,成为全球机器人精准导航、高效操作的范式参考,代表中国具身智能模型技术跻身世界第一梯队。
应用层:ABot-Claw首创MapasMemory,迈向体系智能
记忆能力是机器人跨越认知与执行鸿沟的底层基石,传统机器人视觉存在“视野之外即荒原”的致命缺陷,记忆呈现场景碎片化,无法形成全局认知,严重制约机器人的长程任务执行能力。作为ABot体系的“执行中枢”,ABot-Claw首创“MapasMemory”(地图即记忆)理念,重构具身智能的记忆与执行机制,彻底破解场景孤岛难题。
ABot-Claw采用通用集中式Harness架构,将高德地图与用户私有地图设为全局认知锚点,把多模态感知数据统一映射至共享语义空间,形成可动态刷新、持久沉淀的“世界记忆”。新机器人终端接入后,仅需读取全局上下文即可零成本继承环境认知,无需重新学习场景,彻底粉碎场景孤岛。
同时,ABot-Claw采用“云端大脑—边缘响应”两级设计,既保证了智能决策的深度,又实现了指令执行的低延迟与高可靠性,完美平衡智能与效率。
在调度层面,ABot-Claw支持多种异构机器人的并行协作与任务接力,遇到设备故障时可自动接续任务,实现任务上下文无缝移交与跨形态协同作业。这一突破标志着机器人系统正式从“单体智能”向“体系智能”演进,机器人不再是孤立的执行个体,而是成为共享记忆、统一调度、协同进化的智能网络节点。此外,ABot-Claw搭载闭环反馈与实时纠错机制,在模糊指令理解、跨机导引、复杂任务执行等场景中,充分验证了极强的鲁棒性与泛化性。
全栈开源赋能行业,重构具身智能研发范式
伴随高德途途的全球首秀,高德同步宣布开源ABot全栈技术体系,这是对“AMAPAIInside”核心理念的深度践行,更是具身智能行业发展的里程碑事件。
长期以来,具身智能行业存在技术门槛高、研发成本高、场景适配难的问题,中小团队难以参与核心技术研发。高德ABot全栈开源,将数据引擎、世界模型、导航模型、操作模型、执行中枢等核心技术全面开放,直接降低行业技术研发门槛,让全球开发者、企业都能站在高德的技术肩膀上推进具身智能创新。此举将彻底重构具身智能的研发范式,打破技术垄断,推动行业从单点竞争走向生态协同,全面加速AGI时代的到来。
从四足机器人途途的开放场景落地,到ABot全栈体系的15项SOTA,再到全栈技术开源,高德用一套完整的技术闭环与产业布局,重新定义了具身智能的发展方向。依托空间智能的核心优势,高德ABot实现了从虚拟训练到真实部署、从单体执行到体系协同、从封闭研发到开放生态的全链路突破,不仅彰显了中国在AGI与具身智能领域的技术实力,更将推动全球具身智能行业迈入快速落地、全面进化的新阶段。





京公网安备 11011402013531号