谷歌发布了即将召开的 I/O 开发者大会的日程安排,其中包括专注于开发者的会议,承诺提供更多关于其即将推出的 Android XR 操作系统的洞察。从日程安排来看,谷歌似乎还没有对此大肆宣扬。
自从谷歌在去年12月宣布 Android XR 及三星的“Project Moohan”混合现实头戴设备以来,Android XR 就一直处于公众视野之外。目前尚无任何明确的发布日期,尽管预计两者都将在今年晚些时候公开发布。
虽然谷歌已经确认了一些 Android XR 特性,包括备受期待的透视相机访问支持,并已向开发者发布了 Android XR SDK 的访问权限,但我们仍在等待其与 Meta 的 Horizon OS 和苹果的 visionOS 等成熟 XR 生态系统的对比。
三星 Project Moohan | 图片来源 The Verge
谷歌 I/O 将于 5 月 20 日至 21 日期间包含多场直播的主题演讲,尽管已经宣布的专注于 Android XR 的两场开发者讲座将不进行直播。然而,将会有一场“Android 新特性”的直播,承诺也会涉及 Android XR。
如果直播中没有任何有意义的信息,那么这两场关于 Android XR 的开发者会议表明,谷歌希望在更广泛的 Android 生态系统中积极推进 XR,尽管这并不是在公开的直播主题演讲中进行。
以下是我们从讲座内容中可以了解到的信息(下方为描述):
Android XR 正在向今年晚些时候的公开发布迈进,谷歌正准备在正式发布前推出一套新的 XR 工具链,将 Jetpack SceneCore 和 ARCore 打包到其专用于 XR 的 Jetpack 版本中。Jetpack XR 目前处于开发者预览阶段,允许移动或大屏幕 Android 应用开发者借助 3D 模型和沉浸式环境创建空间布局。值得注意的是,ARCore 与 Jetpack XR 的结合表明谷歌正在整合其空间计算工具,让开发者可以统一构建 AR 和 VR 体验。
讲座还集中于向现有应用添加 XR 特性,如 3D 模型、手部追踪和立体视频,这意味着 Android XR 希望吸引的不仅仅是游戏开发者——这显而易见,因为谷歌显然旨在使 Android XR 在应用上与更广泛的 Android 生态系统保持平价。
谷歌还计划将其声明式用户界面工具包 Jetpack Compose 扩展到 XR,这表明该公司希望在移动设备、平板电脑和 XR 之间标准化用户界面设计,使得在沉浸式环境中更容易端口或调整用户界面。
值得注意的是,第二场讲座(见下文)强调了即将融入 Android XR 的 AI 能力,这可能意味着实时物体识别、场景理解或 AI 生成环境等特性即将推出。
当然,两场讲座都不进行直播,这可能意味着谷歌仍然不准备高调宣传 Android XR。我们也希望能听到更多关于三星即将推出的“Project Moohan”头戴设备的信息,预计它将成为首款支持 Android XR 的头戴设备。
无论如何,我们将关注直播并报道技术讲座,希望能听到一些新消息。
为 Android XR 构建具有差异化的 3D 内容应用
Dereck Bridié 开发者关系工程师,Patrick Fuentes 开发者关系工程师
“请加入我们,介绍 Jetpack SceneCore 和 ARCore for Jetpack XR,并指导开发者通过添加沉浸式内容,如 3D 模型、立体视频和手部追踪,将其融入现有应用。参与者将了解 Android XR SDK 开发者预览中的新特性,获取 Android XR 今年晚些时候公开发布所需的基本知识。”
如今的未来,Android XR 上的 Compose 和 AI
Cecilia Abadie 高级产品经理,Jan Kleinert 开发者关系工程师
探索 Android XR 带来的沉浸式体验的未来。本次会议将揭示即将在 I/O 上发布的 Android XR SDK Beta 的最新更新,包括对 XR 的 Jetpack Compose 的增强和尖端的 AI 能力。了解如何利用您在大屏幕开发上的现有投资,从而轻松拓展到 Android XR 的激动人心的世界。