Oculus分享Lipsync工作原理,如何让虚拟角色唇部说话栩栩如生
Oculus在今年的Facebook开发者大会上展示了音频到面部动画技术的最新进展。该技术允许通过任何语言的口语实时驱动面部动画。Oculus宣布这项技术将在最新的Oculus Lipsync Unity集成更新中向开发者开放。Oculus Lipsync是一种Unity集成,用于将虚拟角色的唇部动作同步至语音。它通过离线或实时分析音频输入,预测可用于将虚拟角色或非玩家角色的嘴唇动画化的一组发音嘴形。视觉音素是嘴唇和面部的姿势,对应于特定的语音。Oculus Lipsync将音频输入映射至包含15个视觉音素目标的空间,并描述了发音产生的面部表情。Oculus在演化中加入了深度学习算法和时间卷积网络模型,实现了更高的精度预测视素。通过与艺术家和面部姿势专家的合作,Oculus制作了一套新的视素参考图像来驱动逼真的面部动画。这些更新为开发者提供了利用最先进的唇形技术来驱动虚拟角色和非玩家角色的能力,使Oculus Lipsync更强大、更具表现力和更易于使用。