/ Roadtovr / 0浏览

Apple Vision Pro 将拥有一个“阿凡达网络摄像头”,能够自动与流行的视频聊天应用集成。

除了提供沉浸式体验外,苹果表示Vision Pro将能够直接无需修改地运行大多数iPad和iOS应用程序。对于Zoom、Messenger、Discord等视频聊天应用,苹果表示将为应用程序提供“虚拟摄像头”,使其能够自动处理头戴设备与其他设备之间的视频通话。

苹果表示,在首日,所有适用的iOS和iPad OS应用程序将在头戴设备的应用商店上线。根据该公司的说法,“大多数应用程序根本不需要任何更改”,绝大多数应用程序应该可以在头戴设备上立即运行。开发者可以选择不让自己的应用程序出现在头戴设备上。

对于像Zoom、Messenger、Discord、Google Meet等视频会议应用,这些应用希望能够访问iPhone或iPad的前置摄像头,苹果在Vision Pro上做了一些巧妙的处理。
Vision Pro不会提供实时摄像头视图,而是提供头戴设备生成的用户虚拟形象视图(苹果称之为“Persona”)。这意味着按照苹果现有指南构建的视频聊天应用程序应该可以在Vision Pro上运行,无需修改应用程序处理摄像头输入的方式。
如何表现苹果Vision Pro的“Persona”虚拟形象 | 图片提供:苹果
Persona使用头戴设备的前置摄像头扫描用户的面部来创建模型,然后根据头部、眼睛和手的输入进行动画处理,这些输入由头戴设备进行跟踪。
图片提供:苹果
苹果在名为“Enhance your iPad and iPhone apps for the Shared Space”的WWDC开发者会议上确认了这一点。该公司还确认,在Apple Vision Pro上要求访问后置摄像头(例如摄影应用)的应用程序只会得到黑屏和“无摄像头”符号。这样通知用户没有后置摄像头可用,但也意味着即使应用程序期望看到后置摄像头,iOS和iPad应用程序仍将继续运行而不会出现错误。

视频聊天应用程序如Zoom、Messenger或Discord可能无法在苹果Vision Pro上直接运行的原因可能还有其他,但就摄像头处理而言,开发者应该很容易通过查看用户的Persona视图来启动和运行视频聊天。

甚至有可能像Snapchat和Messenger这样的应用程序中的“AR面部滤镜”可以与用户的苹果Vision Pro虚拟形象正确合作,而应用程序并不知道自己实际上是在查看计算机生成的虚拟形象而不是真实的人类。
图片提供:苹果
在另一场WWDC会议上,苹果进一步解释了iOS和iPad应用程序在苹果Vision Pro上的行为,无需进行修改。

开发者可以期望从头戴设备接收最多两个输入(用户可以用每只手的拇指和食指捏合),因此任何需要双指手势(如捏合缩放)的应用程序应该可以很好地工作,但不能从头戴设备进行三个或更多指手势。至于需要位置信息的应用程序,苹果表示头戴设备可以通过Wi-Fi提供大致位置,或通过用户的iPhone共享具体位置。

不幸的是,现有的ARKit应用程序无法直接在苹果Vision Pro上运行。开发者需要使用新升级的ARKit(以及其他工具)使其应用程序适用于头戴设备。这在名为“Evolve your ARKit app for spatial experiences”的WWDC会议中有所涉及。

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注