/ Roadtovr / 0浏览

谷歌迈出了使体积感虚拟现实视频流成为现实的一步。

谷歌推出了一种捕捉和流式传输全息视频的方法,谷歌研究人员表示,这种方法可以压缩成轻量级格式,甚至可以在独立的VR/AR头盔上渲染。

无论是单眼还是立体的360度视频在某种程度上都存在缺陷,因为它们不能让VR用户在3D空间内完全移动头部;你可以进行旋转上下左右和左右移动(3DOF),但无法进行前后倾斜、站起或坐下,或移动头部来查看周围的事物(6DOF)。即使坐着,你会惊讶地发现自己经常在椅子上移动,或者用脖子微调,而当这与标准的360度视频结合在一起时,你会觉得自己像是在用头部“拉动”世界。显然并不理想。
相比之下,全息视频则是关于捕捉现实世界中光的存在方式,并将其展示给VR用户,使其能够自然地移动头部。这意味着你将能够在视频中查看某个物体,因为额外的光线(和几何)数据已从多个视点进行捕捉。虽然谷歌并不是这个想法的发明者——我们在苹果收购NextVR之前就已经见过类似的东西——但它确实在努力降低总体成本,最终实现全息视频的普及。
在SIGGRAPH 2020之前发表的一篇论文中,谷歌研究人员通过创建一个定制的46台时间同步动作摄像机组成的阵列,粘贴在直径92cm的半球上,实现了这一目标。这为用户提供了80cm的位置移动范围,并带来了每度角分辨率为10像素、220度以上的视场角和30fps的视频捕捉。请查看下面的结果。

研究人员表示,该系统可以重建距摄像机装置最近20cm的物体,这要归功于谷歌的深度学习系统DeepView中最近引入的插值算法。
研究人员表示,这是通过将谷歌基于多平面图像(MPI)的场景表示与一组球面壳替换来完成的,这些球面壳更适合表示全景光场内容。
“我们进一步处理这些数据,将大量的球面壳层减少到一小部分固定的RGBA+深度层,而在视觉质量方面没有明显的损失。然后,使用传统的纹理图集和视频压缩技术对这些层中的RGB、alpha和深度通道进行压缩。最终,压缩后的表示形式轻便,可以在移动的VR/AR平台上渲染或在web浏览器中使用”,谷歌研究人员总结道。
实际上,谷歌在这里引入的是一种更具成本效益的解决方案,这可能会促使该公司创建自己的全息沉浸式视频团队,就像谷歌在2015年推出Google Jump 360摄像设备项目之前所做的那样,尽管该项目在去年被关闭。当然,前提是谷歌进一步支持这个项目,比如为YouTube增加对全息视频的支持,并发布摄像机阵列本身的开源计划。不管怎样,对于寻求推动下一章全沉浸视频发展的讲故事者来说,全息视频或者正如谷歌在论文中所称的光场视频,正开始展现出可行的进步。
如果你想更多地了解谷歌的全息视频示例,可以在此处查看。

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注