/ vrtuoluo / 0浏览

VR社交Quest Pro面部追踪系统体验:追踪细节丰富,注重隐私安全

编译/VR陀螺

面部追踪系统是Quest Pro一大新功能,该系统能通过内部摄像头感知用户眼睛以及脸部某些部位的运动情况,结合免校准的机器学习模型,头显能将摄像头所看到的内容实时驱动Avatar的面部动作。

短期内,面部追踪系统将会结合Meta当前的Avatar系统一起使用,这能让化身更具表现力,但某些方面而言,当前Avatar系统的底层动画框架还不能很好与之适配,实际显示效果可能会打折扣。

图源:roadtovr

为此,Meta构建了一个技术演示,它给我们展示了结合面部跟踪功能的Avatar的前景(渲染Avatar几乎动用了头显的全部处理能力。)以下是海外平台roadtovr的一些体验感受:

目前,该技术演示仍有些不稳定,不过里面的名为Aura的虚拟化身形象已经能很好还原用户做出的动作。我上手体验时,让我印象深刻的地方在于即便没有进行特殊的校准,Aura也能很好的模仿我所能想到的绝大部分脸部动作。

此外,Aura的皮肤细节处理也很出色,我眯起眼睛皱起鼻子时,可以看到它周围的皮肤真实地聚集在了一起,我抬起眉毛时也同样如此。这些细节让人印象深刻,它有时候会让我觉得这不仅仅是摆在我面前的一个物体,它背后是一个有生命的东西。

Meta表示,他们将会把Aura当做一个开源项目发布,使得开发人员可以参考这一面部跟踪系统使用示例。Meta表示,这一工具还能用于处理人形以外的化身,如动物、怪物等,而无需再做单独调整。

图源:roadtovr

Meta表示,开发人员将能够使用其面部跟踪API,该API使用与FACS相对应的值,这是一种公认​​的用于描述人脸不同肌肉运动的系统。

该面部追踪系统为用户提供了优秀的隐私保障。根据Meta的说法,开发者实际上无法获得用户面部的原始图像。相反,他们得到的是“一系列零到一的数值,它与一组通用的面部动作相对应,比如皱鼻子或皱眉头等。”

“这些信号使开发者将脸部跟踪API的信号映射到他们自己的角色装备时,很容易保留玩家原始运动的语义,无论他们的角色是人形还是更奇特的东西。”

Meta声称,即使是公司本身也无法看到头显内部或外部摄像头拍摄的图像,因为数据会在头显上进行处理,然后立即删除,而不会发送给云端或开发人员。

来源:roadtovr

投稿/爆料:tougao@youxituoluo.com

稿件/商务合作: 六六(微信 13138755620)

加入行业交流群:六六(微信 13138755620)