谷歌在去年底首次发布了Android XR软件开发工具包(SDK)后,推出了其第二个开发者预览版,引入了新的功能和改进,包括更广泛的沉浸式视频支持、改进的自适应UI布局、ARCore中的手部追踪以及更多功能。
在Google I/O大会上宣布的Android XR SDK更新旨在为开发者提供更标准化的工具,以便他们可以制作自己的XR原生应用程序或将标准Android应用迁移到头戴设备上。这次更新现已包括对MV-HEVC格式的180°和360°立体视频播放的支持,该格式是经优化的高质量3D沉浸式视频中最流行的编解码器之一。
谷歌宣布,Android XR开发者预览版2现在有Jetpack Compose for XR,它使得通过SubspaceModifier和SpatialExternalSurface等工具在XR显示器上实现自适应UI布局成为可能。Jetpack Compose是谷歌的声明式UI工具包,旨在标准化移动设备、平板电脑和沉浸式头戴设备的UI设计。
ARCore for Jetpack的一个重大更新是引入了手部追踪,其中包括26个用于基于手势的交互的关节。开发者现在可以找到更新的示例、基准测试和指南,以帮助将手部追踪集成到应用程序中。
XR的Material Design也进行了扩展,谷歌表示这将帮助“能够在大屏幕中运行的应用程序轻松适应XR的新世界”。然而,大多数Android XR开发者可能无法访问官方的Android XR头戴设备,这些设备将在今年晚些时候推出,包括混合现实头戴设备Samsung Project Moohan和AR眼镜XREAL Project Aura——这使得Android XR仿真器成为一项不可或缺的工具。
谷歌表示,开发者预览版2现在通过包含AMD GPU支持、提高的稳定性和在Android Studio中的更紧密集成来改进Android XR仿真器,这应该有助于XR应用的测试和开发工作流程。
Unity作为XR开发中最受欢迎的游戏引擎,现在也提供Unity OpenXR预发布版本2的访问权限,该版本带来了通过Shader Graph实现的动态刷新率和空间变换支持的重要性能提升。Unity改进的混合现实模板现在还具有真实的手部网格遮挡和持续锚点功能。
此外,Android XR Samples for Unity也已发布,展示了手部追踪、平面追踪、面部追踪和透视等功能,以帮助开发者快速集成这些功能到自己的Android XR应用中。
尽管Android XR未成为今年Google I/O大会的主要焦点,但谷歌正在向前推进,不仅将Android XR推向更多合作设备,还将在稍后推出来自眼镜制造商Warby Parker和Gentle Monster的Android XR智能眼镜。
谷歌表示,其Android XR眼镜将推出两个主要版本:一个在功能上与Ray-Ban Meta眼镜十分相似,另一个则配备了用于基本任务(如阅读文本、查看照片和视频以及导航)的显示屏。
您可以在此处了解有关Android XR开发者预览版的更多信息,其中包括当前可用工具和更新的详细信息。