/ Roadtovr / 0浏览

OSSIC CEO就为何音乐的未来是沉浸式和互动性的发表看法

OSSIC在今年的CES展会上展示了最新的OSSIC X耳机原型,它的沉浸式音频演示是我目前听过的最好的。OSSIC的首席执行官Jason Riggs告诉我,他们的耳机通过对你的耳朵进行动态校准,以定制你的解剖结构的近场音频,还有一个全新的交互式音频沙盒环境,可以在不同高度和深度的360度环境中进行音频对象的实时混音。OSSIC还参与了Abbey Road Studio的Red孵化器项目,研究音乐制作的未来,Riggs大胆预测未来的音乐将是沉浸式且交互式的。

在今天的播客中,我们将深入探讨沉浸式音频,Riggs将详细解释他们的音频渲染流程以及他们的耳解剖动态校准如何使他们的集成硬件能够比其他任何软件解决方案更好地复制近场音频对象。当音频对象在1米之内时,他们会使用动态头部相关传递函数(HRTF)来计算与您的耳解剖结构独特相关的合适的耳间时差(ITD)和耳间级数差(ILD)。当高频音源在您前方、上方或后方时,他们的动态校准还可以帮助定位1-2kHz的高频声音。

Riggs表示,他们一直在与Abbey Road Studios合作,以探索音乐的未来,Riggs认为未来的音乐将是沉浸式且交互式的。从音频制作的角度来看,有两种极端,一种是纯粹的现场捕捉,一种是纯音频制作,这与被动的360度视频捕捉和实时交互的CGI游戏之间的区别相似。现在,音乐行业在静态的多声道音频方面表现良好,但Riggs认为,未来的音频制作工具将更像是实时游戏引擎,而不是现有的固定视角和平面世界的音频混音控制台。

OSSIC已经开始着手解决纯粹现场捕捉端的生产流程。他们一直在使用高阶环形声学麦克风,例如来自mh acoustics的32元素em32 Eigenmike麦克风阵列。与标准的四声道一阶环形声学麦克风相比,它们可以捕捉更多的空间分辨率。这两种方法都捕捉了一个位置的声音球壳,具有其独特的定向和反射声音特性,可以将你带到另一个地方。

但是Riggs表示,这种被动和非体积声学记录方式只能捕捉和传输有限的深度信息。另一种极端是纯音频制作,通过在模拟的3D空间中使用音频对象,可以实现实时和交互的体积声音。OSSIC使用Unity制作了一个交互式音频演示,能够在距离少于1米的近场产生音频。

交互音乐的未来面临着与360度视频和交互游戏环境之间类似的挑战,即如何平衡用户的主动性和创作成果的过程。一些将互动性与音乐体验结合的方式包括允许用户在3D空间中实时混音已有的作品,或者玩一个根据每首音乐独特的声音特性创建动态游戏性的音频反应游戏,如AudioShield。这些方式可以激发用户的主动性,但是它们都没有提供用户对音乐演奏如何展开的有意义的影响方式。

在音乐的未来中,找到创作和互动之间的平衡是一个最重要的开放性问题,没有人真正知道这将如何发展。Riggs只知道实时游戏引擎(如Unity或Unreal)比现有的基于频道音乐制作工具更适合促进这种类型的交互。对于Facebook和Google的YouTube上的360度视频平台,多通道全景声格式变得更加标准化,但还是只能输出双耳立体声。Riggs说,他一直在幕后努力提供更高级的保真度输出,以适应集成式沉浸式硬件解决方案(如OSSIC X)的需求,因为目前他们还没有使用最佳的空间化处理方法来发挥OSSIC耳机的最佳性能。

至于纯生产方面的格式,目前还没有出现一个针对对象型音频的开放格式的标准。Riggs希望最终会出现这个标准,并且会有适用于OSSIC耳机的插件和软件,能够动态更改虚拟房间的反射属性,或者动态调节音频对象的属性。

随着游戏引擎最终进入基于物理模型的实时音频传播模式,声音将在实时构建中,Riggs说这仍然需要与集成硬件和软件解决方案相结合的良好空间化处理,否则声音只会听起来像是好的混响而没有任何定位的线索。

目前,音频仍然在视觉效果中处于次要地位,CPU只分配了有限的2-3%的预算。Riggs希望在2017年会有一系列的音频演示,展示正确空间化音频的威力。OSSIC在CES展览上的互动声音演示是迄今为止我听到的最令人印象深刻的音频空间化示例,他们正在成为沉浸式音频的真正领导者。Riggs说,他们从游戏工作室那里得到了很多反馈,他们不想使用OSSIC提供的定制音频制作解决方案,而是希望使用现有的制作流程,并使OSSIC与之兼容。因此,VR开发者们应该会在2017年获得有关如何最好地与OSSIC硬件集成的更多信息,因为他们的OSSIC X耳机将在今年春季开始发货。

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注