如今各大城市的地标建筑、商场大屏的裸眼3D展示已经成为网红打卡地,一些采用裸眼3D技术的展演甚至一票难求。裸眼3D技术加持下,视频中的人物、动物仿佛真的要穿越屏幕来到自己身边。更重要的是,这种逼真的效果无需观众佩戴任何设备,睁眼可见的“科幻感”更让人感觉未来已来。
其实,3D正是我们感知世界最原本、最自然的形式,裸眼3D技术在2D屏幕中“还原”了我们在真实世界中的感受。那么,裸眼3D技术是怎么实现的,又能为我们带来什么,应用场景在哪里,今天我们来一一拆解。
什么是裸眼3D?
裸眼3D是一种不需要借助任何辅助工具,如3D眼镜,就能看到三维立体影像的技术。它通过特定的显示技术和视觉处理技术,使得观看者的每只眼睛能够看到略有不同角度的图像,从而在大脑中重建出立体的空间感。
人类能感知到3D是因为人的双眼位置不同。当看同一物体的时候两只眼睛会产生视角的差异,即“视差”。大脑接收到了来自左眼和右眼带有视差的左图和右图,再经过大脑的合成就会形成3D图像。
人类为什么需要裸眼3D?
视觉是人类获取信息最重要的来源,有统计数据表明人类大概83%的信息是通过视觉来获得的,因此人类天然就有看得更清楚、更真实、更开阔的需求。在屏显技术出现以后,大家逐渐意识到,不论笔记本还是显示器,呈现的都是二维画面,但我们日常所处的环境是三维的,因此由2D到3D的显示升级成为行业发展的一大动力。
举个例子,大部分人都会觉得镜子中的自己比证件照中的自己好看,这就是由2D到3D的“视角升维”带来的魅力。
而随着AIGC等前沿技术的迅速发展,互联网正在逐步从2D转向3D,我们正在迎来一个体验升维的新时代。因此,在屏幕中还原真实、立体的世界,成为联想研发裸眼3D技术的出发点。
此前裸眼3D技术普及面临哪些难点?
裸眼3D技术虽然有种种优势,但暂时还没有得到大范围的普及。究其原因有以下几点:
使用门槛高:需要安装非常多的软件,并进行大量调试,使用过程繁琐,对用户的要求较高。同时显示设备也需要配备高端显卡等,进一步提高了使用成本;
显示质量不高:既往的裸眼3D显示设备,整体像素、色彩等方面效果不佳,对于工业设计师等裸眼3D的需求人群来说,远远无法达到他们的使用要求;
尺寸小:由于技术原因,既往的裸眼3D设备尺寸都比较小,显示效果受限,不仅无法提高生产效率,还提高了用户的使用难度。
为推动裸眼3D落地,联想做了哪些工作?
第一件事,联想认为现在还是2D为主的世界,平常的办公、Windows所有的都是2D,纯3D对大家的接受度会有很大的障碍,所以第一件事是要突破怎么实现2D、3D混合显示,想看3D的时候看3D,用2D的时候还是一个很好的2D显示器,这里要进行突破。
第二件事,是突破大尺寸,发布了业内首款4K 27寸裸眼3D显示器——联想ThinkVision 27裸眼3D显示器。
第三件事,提供不输于2D的色彩、声音、效果、显示、连接,在此之上,再给用户加一个3D的应用。
联想ThinkVision 27 裸眼3D显示器实现了哪些突破?
历时超一年半的研发周期,ThinkVision 27 裸眼3D显示器在可用性、兼容性、显示质量、尺寸等四大方面都带来了创新与突破。
首先在可用性方面,ThinkVision 27 裸眼3D显示器实现了2D/3D可切换。在用户使用PPT、Word等2D软件,浏览2D内容时,联想ThinkVision 27 裸眼3D显示器可以提供高质量的显示效果。但在播放3D片源或者使用3D设计软件时,该显示器即可自动转换为3D显示,无缝切换。
其次在兼容性方面,ThinkVison 27 裸眼3D显示器裸眼3D算法不依赖于Windows的操作系统,最大程度减少了软件冲突,实现业内唯一所有裸眼3D算法独立运行的显示器。值得一提的是,显示器所有裸眼3D算法主要依赖于算法板卡硬件,无需专门配置显卡,入门门槛大幅降低。
第三在显示方面,ThinkVison 27 裸眼3D显示器拥有99% Adobe RGB与99% DCI-P3色域覆盖率。其4K的超清屏,添加了出厂的小于2的色场矫正。
最后是突破大尺寸。联想ThinkVison 27 裸眼3D显示器是全球首款27英寸4K(2D状态下、3D为2K)裸眼3D显示器,超大尺寸屏幕专为更加身临其境的创作、连接和协作而设计。
联想ThinkVision 27 裸眼3D显示器的裸眼3D效果是如何实现的?
联想ThinkVision 27 裸眼3D显示器中显示的图像,其实是联想基于智能人眼跟踪算法实时监测用户双眼的位置后,结合光栅的信息计算出的左图和右图的“交织图像”。
因为光路是可逆的,所以用户在观看屏幕的时候,“交织图像”再经过光栅过滤,就会把左图和右图分别投射到左眼和右眼,从而产生了裸眼3D的效果。
联想ThinkVision 27 裸眼3D显示器实现裸眼3D效果的关键技术是什么?
对于裸眼3D显示来说最关键的技术是实时地知道用户双眼的位置,这对于改善观看舒适度非常必要。真实世界中,人能看到3D物体是因为能接收到物体表面发射或者反射的光线,而且这个过程不存在任何延迟。
但是当人看裸眼3D显示器的时候,系统首先得“知道”眼睛的位置,然后根据位置计算左右交织的图像,再通过光栅的过滤把左图投到左眼、右图投到右眼。整个过程相比于人眼看到真实世界中的3D物体相比,会存在一个延迟。
当这个延迟过大的时候,人们就会因为与惯常体验差异过大而产生一些不舒适,比如说眩晕、疲劳。所以改善观看舒适度的有效方式就是尽可能地减少眼动跟踪的延迟,为此联想也构建了高精度、低延迟的双眼3D位置跟踪的算法。
目前,内置于联想ThinkVision 27 裸眼3D显示器的双眼3D位置跟踪算法基于普通的RGB摄像头能以大于150帧每秒的速度实时计算人的双眼在空间中的位置,整个算法的延迟小于7毫秒。再加上图像交织可能需要一部分延迟,大概8到12毫秒,会确保整个延时控制在20毫秒以内,从而保证用户在观看的时候能够有一个舒适的观看体验。
联想ThinkVision 27 裸眼3D显示器如何让用户享有更丰富的裸眼3D内容?
为了给用户带来更丰富的裸眼3D内容体验,联想双管齐下,在尽可能兼容已有3D内容的同时,尝试将2D内容转换为3D形式。
首先,为了让裸眼3D显示设备尽可能地无缝兼容已有的3D内容,联想构建了一个设备端跨应用的渲染引擎。当设备打开一个3D应用以后,该引擎可以从显卡驱动层获取到3D内容本身的3D信息,比如3D模型的点云、网面、着色信息等,并对这些数据做一层渲染。这一过程可以把本来是单视图的3D信息渲染成适合裸眼3D显示的左右图格式,然后再输出到上层应用在显示器上显示。这样一个本身就是3D格式的内容通过引擎以后就可以不需要做任何的修改,直接在联想的裸眼3D设备上浏览和使用。
其次,联想在尝试将2D内容转换成3D在设备上显示。由于2D的内容本身是缺乏3D信息的,所以联想借助AI算法从2D内容上估算每个像素的3D信息。在解决这一问题的过程中,联想工程师运用到了一个非常有趣的心理学现象——知觉填充。知觉填充指人类可以根据自己的认知去发现一些本身不存在的视觉线索,自动填充得到完整的信息,也就是俗话说的“脑补”。
基于这个原理,在将2D内容转换3D格式的左右图的时候,只需要保留原始2D图像的清晰度,而另一幅转换出来的图像中的部分像素可以模糊一些,然后让大脑基于清楚图像,来脑补另一个图像上模糊的部分,从而可以节省一部分算力。
目前联想2D转3D AI算法已经可以轻松支持2D的4K视频在ThinkVision 27 裸眼3D显示器上实时转化为3D格式,是业内第一个可以完成该任务的AI算法。
裸眼3D显示器都可以应用在哪些领域?
裸眼3D技术在工业设计、智慧医疗、智慧教育、智慧办公、游戏、网购等多个领域有着非常丰富的应用场景与想象空间。
首先,工业设计领域可以用于汽车制造、建筑设计、工程施工、装修等等。以显示器产品设计为例,在产品设计完之后需要打样,时间至少两周,花费数万元,而打样可能需要很多轮。通过ThinkVision 27 裸眼3D显示器可以立体呈现设计效果,不仅可以帮助缩短打样周期,更能节省打样的费用。
其次,裸眼3D技术也可以用于医疗领域,裸眼3D 显示器可提供清晰的三维视图,为医生提供帮助,尤其是在外科手术期间。它还开辟了远程手术场景可能性。
第三,在专业教培领域,当老师讲花蕾的结构、地球的结构时,裸眼3D显示器可以提供非常清晰的呈现。目前很多技术实验包括技工类培训都有一定的操作危险性,通过裸眼3D显示器可以更大限度地减少这种危险性。
未来,裸眼3D技术还有可能将现在的远程会议转变为 裸眼3D协同的“立体会议”,参会人员可以更清晰的看到讨论对象、项目情况等,对沟通效率提升会有非常大的帮助。而在游戏、电商等领域,裸眼3D技术都蕴藏着非常广阔的应用机会。
伴随技术的飞速进步与产品的不断丰富,裸眼3D终会实现从工业到民用行业的转换,互联网世界也将完成从2D到3D的转换,裸眼3D技术终将触达千家万户,为每一个人带来“视界”升维。