/ Voiceofvr / 0浏览

高通2023年AWE公告:Snapdragon Spaces生态系统

The Voices of VR Podcast

介绍

你好,我是Ken Bye,欢迎收听《The Voices of VR Podcast》。这个播客探讨了沉浸式叙事的结构和形式,以及空间计算的未来。你可以通过patreon.com/voicesofvr支持这个播客。

今天,我将继续我对AWE的过去和现在的报道。本集节目中,我将播出几年前与Brian Vogel的采访。当时,Brian Vogel是高通Snapdragon Spaces和开发者生态系统的产品管理高级总监。我们讨论了2023年AWE上发生的许多不同公告,尤其是关于使用Snapdragon Spaces以及不同开放XR扩展的扩展,以及XR生态系统的整体发展情况。因为高通在为几乎所有XR设备提供芯片(除了苹果)方面起着重要作用。实际上,Brian现在在Android XR工作,但这次采访是在他仍在高通时进行的。

采访开始

Brian介绍说:“我在高通的XR业务中工作,负责Snapdragon Spaces产品和生态系统。我领导开发SDK和产品的团队,开发者使用这些工具来创建他们在Spaces中的体验。”

背景与经历

Brian谈到:“我在XR领域工作了大约五年,2017年开始之前,我从事物联网工作。2016年左右,我首次接触XR技术,对沉浸式计算产生了浓厚的兴趣。当高通创始人Hugo决定专注于XR时,我非常期待参与其中。”

Snapdragon Spaces的新功能

在2023年AWE上,Hugo Swart在主要演讲中宣布了Snapdragon Spaces的一些新功能,包括双渲染融合。Brian对此解释道:“我们考虑增强现实设备的类别,并且想到了不同类型的增强现实眼镜,从用于工作指导的助理现实设备,到具有更强沉浸感的设备,如HoloLens和Magic Leap 2。”

Brian进一步阐述了双渲染融合的概念:“我们的初始方法是将手机更多地用作控制器,但现在我们将重心转移,将手机的位置和显示作为体验的核心部分。我们不再将用户体验限制于手机只是一个控制器,而是将其转变为一个完整的移动应用程序,使开发者能够为特定用例创建最佳输入用户体验。”

手机与AR眼镜的协作

Brian提到,通过“双渲染融合”,开发者可以同时从手机和AR眼镜收集输入,并允许用户利用熟悉的手机界面进行交互,而无需学习新的控制方式。这使得应用的开发和用户体验都变得更加直观和自然。

开发者和应用案例

Brian分享了一些现实世界的应用案例,包括“X-ray Glass”公司,他们的应用能够在眼镜上提供实时字幕,支持自然语言处理,实现多语言翻译。这为不同语言背景的用户提供了便利。

另一个例子是“Mark’s Magnificent Puzzle Maze”,这是一个结合AR和手机控制的游戏,玩家需要通过倾斜手机来改变小球的移动方向。

总结与展望

最后,Brian对XR的未来和潜力进行了展望,他认为:“最终,我们会看到独立的AR眼镜,以一种更直观、嵌入日常生活的方式来实现空间计算,届时智能手机的重要性会逐渐降低。”

结束语

感谢您收听今天的《The Voices of VR Podcast》。如果你喜欢这个播客,请告诉你的朋友,并考虑成为我们的Patreon成员,以支持这个节目。感谢你的收听!