当前位置: 首页 » 资讯 » 新科技 » 正文

走哪儿跟哪儿:裸眼3D实时全视差新路线,上海人工智能实验室Nature解难题|光锥读论文

IP属地 中国·北京 未来光锥 时间:2025-11-27 14:16:43

11月26日,《自然》发表了一项题为Glasses-free 3D display with ultrawide viewing range using deep learning的突破性研究:一种名为“EyeReal”的裸眼3D显示系统,首次在桌面级尺寸的屏幕上,实现了全视差且实时的3D显示。论文通讯作者为上海人工智能实验室的欧阳万里、钟翰森。

为什么裸眼3D一直难以实现?

我们熟悉的3D电影通常需要佩戴特殊眼镜,通过左右眼分别接收不同图像来营造立体感。而真正的裸眼3D则希望不依赖任何外设,直接在空中呈现立体图像。然而,这一目标长期以来受限于一个根本问题:光学系统的空间带宽积

可以把它想象成一个水桶的容量:桶的大小是固定的,如果想覆盖更大的面积(屏幕尺寸),水层就会变薄(视角变窄);反之,如果想在某处有很深的水(宽视角),就只能缩小覆盖面积。

以往的技术路线分为两种,但都无法兼顾大画面与宽视角:

1. 全息路线:像《星球大战》中的投影,能在小范围内呈现完美的3D影像,但屏幕只有邮票大小,无法用于日常观看。

2. 多视角路线:类似某些广告屏,通过光学元件将不同的图像导向不同角度。但这就像在屏幕上开了几个固定的观察孔,观众必须站在特定位置才能看到3D效果,一旦移动,画面就会跳跃或消失。

破局:从“均匀洒水”到“智能追光”

上海人工智能实验室的团队换了一个革命性的思路:既然桶里的水(光学信息)是有限的,何必追求在整个房间均匀洒水?何不做一个智能追光系统,只把水精准地浇在需要的人身上?

具体来说,EyeReal的核心创新在于动态空间带宽积优化。它不再试图为所有可能的角度同时生成完美图像,而是通过实时追踪你的双眼,将全部的计算和光学资源集中用于生成你双眼当前所在位置能看到的最优图像。


不同自动立体显示模型与EyeReal在有限空间带宽积下的显示效果原理对比

这一过程依赖于三项关键技术:

1. 精准的眼球建模:系统使用RGB-D摄像头捕捉观众双眼的位置和方向,并建立精确的几何模型,模拟人眼观看真实物体时的视觉路径。

2. 深度学习实时计算:通过一个轻量级神经网络,系统能在不到0.02秒内计算出最适合当前视角的光场图像。所谓光场,可以理解为包含光线方向和强度信息的完整视觉数据。

3. 多层液晶相位调制:系统使用多层普通液晶屏堆叠,通过控制每层像素的相位(一种光学属性),合成出具有深度感的立体图像,而无需复杂的光学元件。

真实世界中的3D体验

在实验中,EyeReal原型机实现了以下突破性表现:

超宽视角:观看角度超过100°,观众可在较大范围内自由移动,仍能看到连续、无跳动的3D图像。

全视差支持:不仅支持左右眼视差,还包括上下、前后移动时的“运动视差”,以及焦点切换时的“焦距视差”,完全模拟真实视觉。

实时响应:系统以每秒50帧以上的速度运行,足以流畅展示动态内容。

硬件亲民:仅使用普通液晶屏与摄像头,无需昂贵定制光学元件,具备良好的商业化潜力。


EyeReal系统的光场传输装置的原型设计:其核心结构仅为多层液晶面板的堆叠阵列,无需任何额外的定制或复杂光学元件

在演示中,无论是虚拟城市景观、日常家居物品,还是动态行驶的汽车,EyeReal均能稳定呈现具有深度感和焦点变化的立体画面,有效避免了传统3D显示中常见的视觉疲劳与晕眩问题。

走向更广阔的3D世界

EyeReal的成功,证明了一条绕过物理限制的可行路径:通过算法和智能,最大化利用有限的光学资源。尽管目前系统仍以单人观看为主,但研究团队表示,未来可通过分时复用、多方向背光等技术扩展至多用户场景,为教育、医疗、工业设计和虚拟现实等领域带来了全新的交互可能。

未来,我们有可能告别笨拙的眼镜,与数字信息的交互将如观察真实物体一般自然、自由和舒适。一个真正的立体视觉时代,正随着这样的突破悄然临近。

编辑:郭郭

论文信息

发布期刊 Nature

发布时间 2025年11月26日

论文标题

Glasses-free 3D display with ultrawide viewing range using deep learning

(DOI:https://doi.org/10.1038/s41586-025-09752-y)


免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。