![]()
12月9日凌晨,最近春风得意的 Google 举办了一场 Android Show: XR,第一次明确了 Android XR 的设备路线,第一次正式展示与三星合作开发的 AI 眼镜原型机。
但如果只看到这些,这场 Android Show: XR 很容易被低估。
没有价格、没有参数堆叠,也没有试图用一款「颠覆性设备」占据活动核心。整场活动更像是一份克制到近乎冷静的路线说明,Google 花了大部分时间强调 Gemini 与 Android XR 的系统整合,讲开发框架、讲 API,讲「Android XR 将覆盖哪些设备形态」,避免把焦点压在某一款终端硬件上。
在官方叙事中,Android XR 已经不再只是「支持头显的 Android 版本」,更是一个以 Gemini 为核心的全新计算平台。

无屏款 Google AI 眼镜,素材经过加速,Google
低调的发布会,高调的XR新蓝图
Google 强调,Gemini 将作为默认的智能层存在于 Android XR 中,贯穿视觉、语音、环境感知与交互理解;而 Android XR 的角色,则是为这种多模态 AI 提供稳定、可扩展、跨设备体验的系统载体。
以此为核心,Google 也一次性铺开了四条产品路线:
XR 头显、AI 眼镜、有线 XR 眼镜以及未来的真无线 XR 眼镜。
不同形态之间不仅共享同一套系统能力,也共享同一套开发栈——Jetpack、Compose、ARCore、Play Services 依旧是开发者熟悉的工具,只是被重新投射到了空间计算与可穿戴设备之上。这也是 Android XR 最务实、同时也最容易被忽视的一点:
它并不要求开发者「转型做 XR」,而是希望 XR 能自然地成为 Android 生态的一种新形态延伸。
在策略层面,Google 展现出的同样是一种熟悉的「老派克制」。Android XR 没有试图复制 Apple 那种自上而下、硬件强力收敛的路线,而是延续了类似 Nexus 时代的合作模式:
系统由 Google 定义,硬件交给不同厂商探索,产品形态可以并行演进。
![]()
Nexus 手机最后的绝唱(与华为合作),Google
无论是与三星合作的 Galaxy XR(Project Moohan)、计划明年上市的 AI 眼镜,还是与 XREAL 合作的有线 XR 眼镜(Project Aura),都只是 Android XR 的「载体」,而非其边界。
这份「保守」之下,Google 的「野心」反而显得更加清晰。
四款设备四条路线,AI+OS是共同核心
在 Android Show: XR 上,Google 做的第一件事,并不是展示一款「代表未来」的设备,而是把 Android XR 能承载的硬件形态一次性摊开。
XR 头显、AI 眼镜、有线 XR 眼镜,以及尚未真正登台的无线 XR 眼镜——这四条路线构成了 Android XR 的完整设备光谱。
重要的并不在于它们是否同时成熟,而在于 Google 首次明确了一个判断:Android XR 不服务于某一种设备,而是要覆盖所有头戴计算设备。
在已经落地的产品中,XR 头显依然是当前最完整的形态。以三星 Galaxy XR(Project Moohan)为代表,它承担的更多是「平台锚点」的角色——完整空间显示、多窗口能力、成熟的追踪与交互体系,让 Android XR 拥有一个相对完整的参照物。
![]()
这条路线并不承担探索最终 XR 形态的任务,更像是 Google 确保 Android XR 「站得住」XR 领域中的基本盘。真正被 Google 另眼相看的,还是 AI 眼镜。
Google 正在与三星、Gentle Monster(韩国知名时尚眼镜品牌)、Warby Parker(美国知名线上眼镜品牌)共同开发两款 AI 眼镜,一款带显示,一款不带显示。但它们共同的特征是极度压低「系统存在感」:
没有复杂界面,没有沉浸式显示,也几乎不谈算力参数,更强调随身佩戴、低干扰、即时理解。
![]()
第三条路线则是与 XREAL 合作的有线 XR 眼镜 Project Aura,预计在明年真是正式发布。
这类我们已经比较了解的观影型分体式 AR 眼镜,眼镜本体负责显示与感知,算力与电池外置,在 Android Show 中被直接定义为「wired XR glasses」(有线 XR 眼镜)。对 Android XR 而言,这条路线证明了系统、交互、应用模型可以在非头显形态下成立。
![]()
至于无线 XR 眼镜,目前还没有更多产品和项目信息。这条路线被明确放在未来,而不是通过概念机或演示视频提前消费想象力。某种程度上,这种「留白」本身就是态度:在散热、功耗、重量和成本尚未同时满足之前,Google 并不急于让 Android XR 被某一代硬件形态绑定。
而真正把这四条路线连在一起的,并不是显示方案或生态,而是以 Gemini 为核心的 Android XR。
AI 定义 XR,也在「吞噬」设备与 OS
在实际体验中,无论是 Galaxy XR、Project Aura,还是 AI 眼镜的原型机,不少提前体验的媒体更多提到的并不是「Gemini 有多聪明」,而是它在系统中的位置发生了变化。Gemini 不再只是以「应用」或「助手入口」的形式存在,而是退到更低的系统层级,承担起理解上下文、空间和任务状态的角色。
这种变化最直接的体现是交互方式的转变。在 Galaxy XR 上用户不需要指定对象或重复操作路径,只要指向、注视配合简单的意图描述,系统就能完成窗口管理、内容筛选或状态切换。这类体验比短促的问答更能回答 AI 在现实工作流中的实际意义。
![]()
Gemini 实时游玩建议,素材经过加速,Google
AI 眼镜上,Gemini 更是交互核心。没有学习成本,也没有模式切换,只围绕用户「看到了什么」「想知道什么」。比起 XR 头显或者有线/无线 XR 眼镜,这里的体验改变,并不来自 XR 技术,而来自 AI 被放置在一个足够自然、也足够克制的位置。
把这层体验抽象出来,就不难理解 Google 在 Android XR 上的整体策略——非常典型的 Nexus 时代做法:平台由 Google 定义,核心体验由系统保证,具体硬件形态交给合作伙伴并行探索。关键在于,Google 能够抓住核心的 AI 与操作系统生态,又不至于分散太多精力投入到硬件上。
![]()
这对于刚刚重新夺回「AI 王冠」,逼得 OpenAI 拉响「红色警报」的 Google 来说很重要。
事实上,AI 大模型的核心战场正在快速扩大。《大西洋月刊》CEO Nick Thompson 最近在Tiktok上,就透露 OpenAI CEO 山姆·奥特曼在一次午餐会表示,AI 的核心竞争不只是模型,还有设备与 OS 操作系统,包括苹果也是 OpenAI 的竞争对手。
不只是 Google、OpenAI 这么看,豆包手机助手和「豆包手机」的出现也说明了字节跳动的「英雄所见略同」。
字节跳动
再回看 Google,目前这种策略虽然有些「保守」,不制造爆款,也不急于统一形态,但好处同样明显,Android XR 不会因为某一种失败的硬件选择而被提前否定。在一个交互尚未定型、AI 正在重塑入口的阶段,Google 选择先稳住系统,再慢慢推进硬件。这种节奏,或许不性感,却足够有耐心。
Android XR 开发,可能会成一种新范式
但开发者准备好了吗?
在 Android Show: XR 上,Google 几乎把所有关键信号都压在了「开发侧」。Android XR 的 SDK 持续更新,Jetpack、Compose、ARCore、Play Services 这些成熟工具被明确纳入 XR 体系,甚至连 Glimmer、Projected 这样为透明显示和多形态设备服务的工具链,也并非为了某一款硬件量身定制,而是跑在不同眼镜与头显上。
不只是 Google 有动作,meta 前几天刚刚面向开发者推出可穿戴设备(核心是 AI 眼镜)接入工具包。
![]()
meta
但 meta 强调把眼镜能力接入既有的手机应用,开发者不需要为 Ray-Ban 或 Oakley 眼镜单独写 App,而是在 iOS、Android 应用中,通过 SDK 获取眼镜的摄像头、麦克风、传感器能力,让眼镜成为手机应用的感知与交互延伸。
这是一个比较务实的选择,先解决规模和场景,再谈平台化。
国内厂商 Rokid 在这一点上则看更加长远。早在智能眼镜成为热点之前,Rokid 就已经围绕 AR 眼镜建立起了初具规模的应用生态。今年 Rokid Glasses SDK 的开放后,开发者可以直接为眼镜本体(基于 CXR-S)开发原生独立应用,还可以面向手机(基于 CXR-M)构建控制和协同应用,后者在理念上也与 meta 基本一致。
![]()
Rokid
区别在于 Rokid 同时从眼镜端和手机端双向推进,这是一种把眼镜当作独立计算终端来经营的模式,生态更「厚」,但也更考验其构建生态的能力。
而 Android XR 的位置,正好卡在两者之间,也高于两者之上。Android XR 并不要求开发者在「原生眼镜应用」与「手机扩展能力」之间二选一,而是试图用操作系统层的抽象,把这两条路径统一起来。
简单来说,应用可以是一段延伸到眼镜的 Android 能力,也可以是完整运行在 XR 空间中的体验,设备可以是 AI 眼镜、有线 XR 眼镜,甚至未来的无线 XR,只要它们都跑在 Android XR 之上。

有屏款 Google AI 眼镜,Google
更重要的是,Gemini 被放在了这套生态的默认位置上。对开发者而言,AI 不再只是一个可选能力,而是一个始终在场、可被调用的系统级智能层。开发不必以「做一个 XR 应用」为起点,而可以从更现实的问题出发,思考如何让应用理解用户所处的环境、正在做的事,以及下一步真正需要什么。
从这个角度看,Google 想表达的并不复杂。Android XR 不要求开发者进入一个全新的、割裂的 XR 世界,而是希望 XR 成为 Android 体系里的一种新运行环境。也是在 XR 尚未形成统一范式之前,先把开发者的心智和工具链锁进 Android 体系。
这或许正是 Android XR 最危险、也最有耐心的地方。
可能更重要的是,Android XR 并不是一次单纯的 XR 押注,而是一次以 Gemini 为轴心,对 Android 本身的重新定义。这种定义很可能不会局限于 XR 和眼镜设备,就像 meta、OpenAI 也不只满足于将 AI 融入头戴设备,而是所有可能存在「计算与理解」的设备,让 AI 主导的「环境计算」(Ambient Computing)成为现实。
![]()





京公网安备 11011402013531号