IT之家 12 月 9 日消息,科技媒体 Android Authority 今天(12 月 9 日)发布博文,报道称在“The Android Show: XR Edition”活动中,谷歌公布了 Android XR 智能眼镜的发展路线图,计划在未来两年内推出三款轻量化设备,旨在取代笨重的头显成为日常穿戴设备。
谷歌明确了 Android XR 的未来发展路径:不再局限于头显单一形态,而是构建一系列智能眼镜矩阵,覆盖 AI 智能眼镜、有线 XR 眼镜及传统头显等多种形态。
首批产品将于 2026 年面世,包括一款内置摄像头但无屏幕的“音频智能眼镜”,利用 Gemini AI 实现视觉辅助;以及一款配备单侧微型显示屏的“单目智能眼镜”,支持导航与通知显示。
更高端的“双目 XR 眼镜”预计于 2027 年推出,将搭载双微型显示屏以呈现具备景深效果的混合现实视觉体验。
2026 年新品:AI 视觉辅助与单目显示
路线图显示,首款“音频智能眼镜”将于 2026 年上市。该设备外观接近普通眼镜,虽不具备显示屏,但内置了扬声器、麦克风及关键的摄像头组件。
IT之家援引博文介绍,该眼镜通过无线连接手机,不仅能和用户语音交互,还能利用摄像头让 Gemini AI“看到”周围环境,从而实现拍照或基于视觉信息的问答服务。
首款代号为 Project Aura 的设备由谷歌与中国厂商 XREAL 联合开发。该设备本质上是三星 Galaxy XR 头显的轻量化眼镜版本,搭载骁龙 XR2 Plus Gen 2 芯片。
![]()
为了缩减体积,它采用分体式设计,需通过线缆连接一个包含电池与计算组件的“主机盒(Puck)”。该产品定位为旅行或博物馆导览等沉浸式场景,预计将于 2026 年正式推向市场。
![]()
谷歌同年还将推出进阶版的“单目智能眼镜”。这款设备在音频眼镜的基础上,于单侧镜片增加了隐蔽式微型显示屏。
该设备由谷歌、三星以及眼镜品牌 Warby Parker、Gentle Monster 联合研发。其核心设计理念是“手机的延伸”:眼镜本身几乎不进行复杂计算,而是无线连接手机,直接利用手机算力。
![]()
图源:Android Authority
硬件上,它在右侧镜片嵌入微型显示屏,并在镜腿配备触控板与扬声器,支持通过 Gemini 进行多模态语音交互(如识别食材并推荐食谱),同样计划于 2026 年上市。
单目 XR 眼镜最大的创新在于软件生态的“零门槛”接入。不同于 meta 需单独开发应用的封闭生态,谷歌允许眼镜直接抓取安卓手机的“常驻通知”并以极简 UI 投射到镜片上。
![]()
软件生态截图
这意味着 Uber 的车牌信息、谷歌地图的导航箭头、YouTube Music 的播放控件等现有功能,无需开发者重新开发即可直接上脸,这种“即插即用”的体验极大地降低了用户的使用门槛。
2027 年展望:双目显示实现真 XR 体验
针对追求沉浸式体验的用户,谷歌计划最早在 2027 年推出“双目 XR 眼镜”。该设备将配备双微型显示屏(每只眼睛对应一块屏幕),能够渲染具有物理景深的图像。
这意味着用户无需佩戴笨重的传统头显,即可获得真正的混合现实(Mixed-Reality)视觉体验,填补了轻量化眼镜与高性能头显之间的空白。
针对公众担忧的隐私问题,谷歌承诺所有设备将配备物理级红色 LED 指示灯,当摄像头工作时强制亮起,且设有明显的物理开关,试图以此重建用户对“面部计算机”的信任。





京公网安备 11011402013531号