/ Roadtovr / 0浏览

Google ARCore深度API现已推出,让开发者可以使AR更加逼真。

ARCore,是Google为移动设备构建增强现实体验的开发者平台,最近进行了更新,将先前宣布的Depth API引入了Android和Unity开发者。Depth API不仅可以让移动设备使用单个RGB相机创建深度图,还旨在使增强现实体验更加自然,虚拟图像可以更真实地放置在现实世界中。

更新(2020年6月25日):Google今天宣布将其ARCore的Depth API提供给开发者使用。一些工作室已经将Depth API集成到他们的应用程序中,以创建更具说服力的遮挡效果,比如Illumix的《五夜后宫AR:特别投递》游戏,使敌人可以躲在你的真实物体后面,增加惊吓效果。
ARCore 1.18版本适用于Android和Unity,包括AR Foundation,将推广到谷歌称为“数亿个兼容的Android设备”,尽管目前还没有明确支持的设备清单。

原始文章(2019年12月9日):Google的研究与工程总监Shahram Izadi在一篇博文中表示,新的Depth API现在可以为移动AR应用程序实现遮挡,并提供创造更逼真的物理和表面互动的机会。
为了演示该功能,Google创建了一些演示来展示新的Depth API带来的全部能力。请注意虚拟对象会被实际物体准确地遮挡。

Izadi说:“ARCore Depth API允许开发者使用我们的运动深度算法通过单个RGB相机创建深度图。” “深度图是通过从不同角度拍摄多幅图像并在移动手机时进行比较来估计每个像素的距离而创建的。”
完整的AR头戴式显示设备通常使用多个深度传感器来创建这种深度图,而Google表示该深度图是在设备上只使用单个传感器创建的。在此图中,红色表示较近的区域,蓝色表示较远的区域。

Izadi解释道:“深度的一个重要应用是遮挡:数字对象在真实世界对象之前或之后准确出现的能力。” “通过与场景融合,遮挡有助于让数字对象在你的空间内真正存在的感觉。我们将开始在Scene Viewer中提供遮挡功能,这是支持AR搜索的开发者工具,支持超过2亿台ARCore启用的Android设备。”
此外,Izadi表示,Depth API不需要专用的相机和传感器,并且未来移动设备的时飞测距(ToF)传感器的加入,可能会使ARCore的深度映射能力最终允许虚拟对象在移动的实际物体后面遮挡。
新的Depth API是继五月份在Google I/O发布的“环境HDR”工具之后推出的,这一工具为AR对象和场景带来了更逼真的光照效果,旨在通过更逼真的反射、阴影和光照增强沉浸感。

更新(12:10):在先前版本的文章中,声称Google正在发布Depth API,但实际上该公司现在只是发布了供有兴趣使用该工具的开发者填写的表格。您可以在此处进行注册。

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注