Google今天发布了一款名为”共鸣音频”的全新空间音频软件开发工具包(SDK),这是一款基于现有VR音频SDK技术的跨平台工具。共鸣音频旨在简化移动和桌面平台上的VR和AR开发。
谷歌的VR空间音频支持已经很成熟,他们在2016年1月通过Cardboard SDK引入了该技术,并于2016年5月将其音频渲染引擎引入了Google VR SDK的主要版本,今年早些时候在Daydream 2.0更新中又有了多项改进。谷歌现有的VR SDK音频引擎已经支持多个平台,但需要平台特定的文档来实现这些功能。今年2月,谷歌官方博客上的一篇文章承认了使用各种音频工具的“令人困惑且耗时”的挑战,并描述了为Unity和虚幻引擎的多个平台开发了简化的FMOD和Wwise插件。
谷歌的新共鸣音频SDK整合了这些工作,并”大规模”在移动和桌面平台上工作,这将简化任何VR/AR游戏或体验中的空间音频开发流程。根据提供给Road to VR的新闻稿,新的SDK支持”最流行的游戏引擎、音频引擎和数字音频工作站”在Android、iOS、Windows、MacOS和Linux上运行。谷歌正在为”Unity、虚幻引擎、FMOD、Wwise和DAWs”提供集成,以及”C/C++、Java、Objective-C和Web”的本地API。
这种更广泛的跨平台支持意味着开发者可以为他们的体验实施一种声音设计,该设计应该在移动和桌面平台上始终保持一致的性能。为了在移动平台上实现这一点,在音频方面CPU资源通常非常有限的情况下,共鸣音频使用”基于高阶Ambisonics的高度优化数字信号处理算法”来扩展性能,可以空间化数百个同时的3D声源,而不会影响音频质量。Unity中的一个新功能可以预计算给定环境的混响效果,从而在播放期间“显著降低”CPU使用率。
类似于现有的VR音频SDK,共鸣音频能够模拟复杂的声音环境,允许控制来自单个声源的声波传播方向。可以指定每个源的宽度,从一个单点到一个声墙。该SDK还会自动为用户所能接触到的声源渲染近场效果。近场音频渲染会考虑声波在头部周围传播时的声学衍射。通过使用精确的头相关传递函数(HRTFs),可以增加近场声源定位的精确度。该团队还发布了一个”Ambisonic录音工具”,可以在Unity中直接进行空间声音设计捕捉,并可保存到文件以供在其他地方使用,例如游戏引擎或YouTube视频。
现在可以在新的开发者网站上找到共鸣音频文档。
对于PC VR用户,谷歌刚在Steam平台上发布了”音频工厂”,让Rift和Vive使用者可以体验使用新的共鸣音频SDK的体验。Daydream用户也可以在这里尝试。
Insider
0