在今天的公司年度WWDC开发者大会上,苹果公司发布了ARKit 3,这是其最新的iOS开发者工具集,用于创建增强现实应用。ARKit 3现在提供了实时人体跟踪和遮挡功能,使得增强现实对象能够逼真地出现在人体前后。苹果还推出了Reality Composer和RealityKit,以便让开发者更轻松地构建增强现实应用。
今天在圣何塞的WWDC开幕主题演讲中,苹果公司发布了ARKit 3。ARKit最早在2017年推出,是用于在iOS上构建增强现实应用的工具套件。
从一开始,ARKit就提供了计算机视觉跟踪功能,使得现代iOS设备能够在空间中跟踪自己的位置,并检测到如地面或平板等平面,用于将虚拟对象放入场景中。通过ARKit 3,系统现在支持人体动作捕获和遮挡。
人体遮挡和身体跟踪
通过计算机视觉,ARKit 3可以理解场景中人物的位置。知道人的位置可以让系统正确地将虚拟对象与真实场景的人物合成,根据距离摄像头的近远来渲染这些对象,使其出现在人的前面或后面。在ARKit的早期版本中,无论人和摄像头的距离有多近,虚拟对象总是显示在场景中的任何人物“之上”。这种情况会破坏增强现实的幻觉,因为它显示了冲突的深度线索。
类似的技术在ARKit 3中用于实时身体跟踪。通过了解人在场景中的位置以及其身体的运动方式,ARKit 3可以跟踪这个人的虚拟身体版本,并将其用作增强现实应用的输入。身体跟踪可以用于将人的动作转化为角色的动画,或用于与场景中的对象互动等。
从苹果展示的身体跟踪技术的镜头来看,目前看起来还相当粗糙。即使有微小的相机移动,角色的脚在其余身体活动时仍然没有保持静止,而且小的腿部动作无法被很好地跟踪。当挥手时,虚拟人物在相应动作下会向前倾斜,尽管用户没有这样的动作。在演示片中,用户将双臂完全伸直,并未将其移动横穿胸部(这将呈现出一个更具挑战性的动作捕捉场景)。
目前来说,这肯定对于像是让孩子操纵人物并录制带有增强现实角色的故事的应用程序来说是有用的。但希望随着时间的推移,这个技术能够改进并变得更准确,以实现更多的用途。很可能这只是一个简单的“hello world”样式的演示,使用了原始的跟踪信息;更复杂的角色基可智能地结合运动输入和物理学,以创建更逼真、程序生成的动画。
同时进行前后摄像机
动作捕捉
快速参考图像加载
自动检测图像大小
视觉一致性
更强大的3D物体检测
人体遮挡
增强现实快速查看中的视频录制
增强现实快速查看中的Apple Pay
多人面部追踪
协同会话
增强现实快速查看中的音频支持
检测最多100个图像
HDR环境纹理
增强现实快速查看中的多模型支持
增强现实辅助UI
RealityKit
图片版权归苹果所有
随着ARKit 3的推出,苹果还推出了RealityKit,旨在让开发者更轻松地在iOS上构建增强现实应用。构建AR应用程序需要对3D应用程序开发、工具和工作流程有很好的理解,这是大部分iOS开发者通常没有太多经验的领域。这使得开发者不太可能尝试新的AR技术,而苹果显然正在努力帮助消除这种过渡的障碍。
从苹果的描述来看,RealityKit几乎听起来像是一个迷你游戏引擎,包括“逼真的渲染、相机效果、动画、物理效果等等”。苹果似乎希望开发者不需要学习Unity或者Unreal Engine等游戏引擎工具,而是使用更容易和熟悉的RealityKit作为选项。
苹果还承诺RealityKit具备一流的渲染效果。虽然我们不确定它是否符合“逼真的照片效果”,但苹果正在调整渲染效果,通过在虚拟物体上叠加效果,使其尽可能地与通过iOS设备相机拍摄的真实世界融为一体。
苹果写道:“RealityKit通过逼真的基于物理的材质、环境反射、地面阴影、相机噪音、运动模糊等等,无缝地将虚拟内容与真实世界融合,使虚拟内容几乎无法与现实区分。”
RealityKit使用了Swift API,并且通过提供网络解决方案,支持在iOS上创建共享AR体验。
Reality Composer与RealityKit一样,旨在为没有游戏引擎、工作流程和资产经验的开发者提供更简便的解决方案。苹果表示,Reality Composer提供了一个库,其中包含了现有的3D模型和动画,可以通过拖放方式轻松创建简单的AR体验,这些体验可以集成到使用Xcode开发的应用程序中,也可以导出到AR Quick Look中(AR Quick Look允许内置的iOS应用程序如Safari、Messages、Mail等快速使用增强现实以原始比例查看三维对象)。
除了内置的物体库之外,Reality Composer还允许导入USDZ格式的3D文件,并提供了一种空间音频解决方案。
0