Leap Motion继续改进手部追踪技术,实现无需控制器的直观互动。该公司最新关注点是一种“交互引擎”,在定义用户输入和虚拟对象之间的互动时超越了标准物理引擎。
Leap Motion的Caleb Kruse展示了该公司在交互引擎上的工作,据说这是实现与各种对象直观准确互动的基础。有了这个基础,开发者可以专注于创建有用的体验,而不必从头开始找出最佳的互动编程方式。交互引擎目前仍在Leap Motion内部使用,但该公司告诉我们他们计划在不久的将来广泛向开发者释放。
Kruse告诉我们,交互引擎是用户输入和物理引擎之间的一种中间人。仅仅使用物理引擎的话,过紧地握住一个物体可能会导致它从手中飞出,因为手指会穿过它。相反,交互引擎试图根据Leap Motion追踪器对您手部移动的了解来确定您的意图(例如抓取、扔掉或推动),而不是将您的手在虚拟现实中当作物理模拟中的任何其他对象。
结果是在与虚拟对象的互动中更具直观性和一致性,而这对于Leap Motion基于计算机视觉的输入来说一直是一个主要障碍。现在,抓取、扔掉和推动物体更加容易和可预测。
在开发交互引擎时,Leap希望能够量化他们手部输入的有效性,因此他们在虚拟现实中创建了一个简单的演示任务,用户要伸出手去抓取一个突出显示的球,并将其放置在随机指示的位置。通过测试数百名用户,Kruse说在使用交互引擎时,人们在这个任务中的准确率约为96%。
另一个利用交互引擎的演示允许您通过将大拇指和食指捏在一起形成一个可识别的手势来创建不同大小的立方体。然后,当您的双手靠近时,会出现一个立方体的轮廓,您可以前后移动双手(就像捏合缩放)来设置所需的比例。
当我自己尝试这些演示时,我注意到即使我用手背遮挡住手指,系统仍然能够令人印象深刻地理解我仍然在握着物体。立方体演示非常有趣且易于使用(特别是在重力关闭的情况下),虽然我在操纵物体方面不太熟练,但Kruse的技巧表明随着时间的推移,使用该系统可能会变得更好(这意味着,必然存在系统稳定性的重要方面)。
抓取没有物理表示的虚拟对象仍然是一件奇怪的事情,但交互引擎确实增强了对象互动的可预测性和一致性,这对于任何输入方法的实用性非常重要。
0