Epic Games今天发布了一个新的视频,展示了HoloLens 2的演示,旨在展示微软最新的独立AR头盔所能实现的图形效果。这个名为“Apollo 11: Mission AR”的互动演示是通过无线网络从运行Epic公司的游戏引擎Unreal Engine的联网PC实时传输的。
“Apollo 11: Mission AR”是今年夏天在Microsoft Build 2019上推出的,它是对1969年阿波罗11号任务和登月的再现,展示了土星V火箭的发射、月球着陆的再现以及尼尔·阿姆斯特朗在月球上的第一步,Epic表示这是基于真实任务的数据和影像重建的。
Epic表示,该演示中有700万个多边形,在真实物理渲染环境中,包括完全动态的光照和阴影、多层材质和体积效果。
然而,这并不是在设备上完成的。为了实现这种细节水平,Epic表示,体验中的“全息元素”实际上是通过无线网络从运行Unreal Engine当前版本4.23的联网PC实时传输的。
根据Epic的HoloLens 2流式传输指南,头盔会发送眼睛跟踪、手势、语音、当前设备姿态和空间映射输入到PC,然后将渲染的帧流式传回HoloLens 2。公司表示,这样设计是为了提高应用程序性能,并使开发更加便捷,因为开发人员在运行应用程序之前不需要在设备上打包和部署应用程序,但明显地,这也使HoloLens 2能够承载比原本独立设备的内部处理器所预期的更具图形相关的体验。
我们联系了Epic以了解是否也可以通过云流式传输来实现这一点,还是只能在本地机器上实现。一旦收到回复,我们将更新本文(见下文更新)。
Unreal Engine 4.23于9月初发布,是该公司游戏引擎的第一个版本,具备适用于HoloLens 2的生产就绪支持,其中包括流式传输和本机部署工具、仿真器支持、手指追踪、手势识别、网格化、语音输入和空间锚点固定等工具。
除了演示的视觉效果外,Epic表示,“Apollo 11: Mission AR”也支持UE4 Composure、色温和后期处理,此外还有OCIO LUT、AJA视频系统的数据输入/输出和其他简化混合现实媒体制作的功能。
更新(美东时间下午2:00):Epic Games发言人发表了以下关于通过远程PC与HoloLens连接进行云渲染的声明:
“虽然从技术上讲可以通过互联网使用HoloLens 2 Remoting,但由于显著的延迟和无法控制的网络条件,我们强烈建议不要这样做。使用HoloLens 2 Remoting时,您应该始终尽量使用本地网络,以最小化延迟并确保最小化其他设备连接到该网络,以最大限度地利用可用于HoloLens 2的带宽。”
0