/ Roadtovr / 0浏览

ManoMotion 将手势输入引入苹果的 ARKit

计算机视觉和机器学习公司ManoMotion今天宣布他们将公司基于智能手机的手势控制与苹果的增强现实开发工具ARKit集成,使得只使用智能手机上的处理器和摄像头就能将基本手部追踪引入增强现实中。

随着谷歌和苹果准备通过各自的软件开发工具包ARCore和ARKit推动增强现实革命,开发人员正热切地想要看看基于智能手机的增强现实能实现多少。我们已经看到了很多新的用例,包括用于移动VR头显的内部外位置跟踪以及一些非常令人惊叹的实验,但这是我们第一次看到手部追踪集成到任一AR平台中。

Venture Beat 在ManoMotion集成ARKit支持之前对该公司的手势输入能力进行了提前评估,ManoMotion的首席执行官Daniel Carlman告诉他们,它可以追踪手中的“27个自由度运动的很多”。与他们以前的版本一样,新的ARKit集成SDK可以追踪深度并识别熟悉的手势,如划动、点击、轻敲、抓取和释放等,同时在CPU、内存和电池消耗上占用极小的空间。

在ManoMotion的视频中,我们可以看到由ARKit驱动的应用程序可以识别用户的手,并对挥动的动作做出响应,将乒乓球送入杯子中,完整展示了ARKit的空间映射能力。

像HoloLens和Meta 2这样的AR设备依赖手势控制来实现完全互动的用户界面,这开启了一个包括诸如放置和调整窗口、通过鼓掌来打开联网灯光等与生产力相关的可能性的世界。虽然谷歌和苹果都没有发布关于未来AR头显的消息,但今天移动平台上的这些早期实验步骤——因为它们无法获得昂贵定制部件的支持,将定义近期内AR头显的功能。

“到目前为止,对于AR技术的现状存在一个非常痛苦的限制——在3D空间中无法与增强对象进行直观的深度交互,” Carlman说道。”将手势控制引入ARKit,并且作为市场上率先证明这一点的工具,这对于我们来说是一个巨大里程碑。我们迫不及待地想看看开发人员如何在增强现实中创造并可能重新定义交互!”

ManoMotion表示ARKit集成将在即将发布的SDK版本中提供,并将在公司的网站上“几周内”提供下载。初始时,集成将首先提供给Unity iOS,后续更新中将提供给原生iOS。

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注