/ Roadtovr / 0浏览

猫头鹰化学实验室发布内置混合现实技术的新作品预告

Owlchemy Labs以其突破传统游戏类型的《模拟小职员》而闻名,现在他们研发出了一种全新的混合现实技术,不仅更加逼真,而且必定会引起VR直播和内容创作者的注意。他们称之为“基于深度的实时应用内混合现实合成”。听起来很复杂,但似乎简化了整个制作流程。

自从Northway Games今年早些时候在《幻想机械》中揭示了混合现实集成以来,绿幕VR设置在各种展览中如雨后春笋般出现。只需一张绿色背景布、一个外置摄像头和一些其他小配件(Northway发布了一份逐步指南),效果一目了然:

然而上述视频的制作需要广泛的打磨和类似辅助剪辑的后期特效,以正确遮挡物品,使其看起来玩家处于立体空间中,而不是平面夹在前景(装置)和背景(虚拟环境)之间。
图片由Owlchemy Labs提供
Owlchemy Labs最近预告了一种新的引擎内方法,可以正确地把你放在行动的中心,完全遮挡,承诺消除了对Adobe After Effects或OBS等额外软件的需求。
他们通过使用立体深度摄像头同时记录视频和深度数据来实现。然后,他们使用自定义插件和自定义着色器将立体数据实时输入到Unity中,以直接在引擎渲染器中剪裁和深度排序用户。这种方法需要用ZED 2K立体摄像头来替换普通的网络摄像头 – 这是一套500美元的双RGB摄像头配置,重要的是它不使用红外传感器(如Kinect),可以干扰VR的定位跟踪。但是,如果你每天都在生成混合现实的VR镜头画面,那么节省的时间(以及令人惊叹的结果)可能值得最初的投资。
[gfycat数据id=”热门难以找到的Armyant”]
Owlchemy表示,您可以使用静态或全动态的跟踪摄像机捕捉画面,并且可以从一台计算机中进行。由于这种方法实际上并不需要VR头显或控制器,您可以在VR场景中捕捉具有多个非跟踪用户的画面。
Owlchemy写道:“开发这个流程是一个巨大的技术挑战,因为我们遇到了许多潜在的问题,比如如何把1080p的带有深度数据的视频以30fps的速度传输到Unity中,而不影响性能,以便VR用户仍然可以在头戴式显示器中达到90FPS。”此外,校准摄像机/视频是一个非常复杂的问题,与深度数据和引擎渲染器的同步以获得最终结果也是如此。经过大量的研究和工程技术,我们成功解决了这些问题,而且结果绝对值得深入研究。”
该工作室表示他们仍需要更多时间来完成这个项目,但他们“计划在Owlchemy Labs之外分享我们的一些技术”。我们将继续关注他们的进展,看看它能达到何种程度。

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注