我有机会试用了Eyefluence,他们在虚拟现实和增强现实应用中创建了一个新的眼睛交互模式。与使用正常的停留焦点或明确眨眼选择的眼睛交互范式不同,Eyefluence开发了一种更舒适的方式来触发离散的动作,通过自然的眼部运动来触发选择系统。有时让我觉得神奇的是,技术几乎能读懂我的思想,而其他时候则明显感觉到这是一个正在发展和定义的新兴视觉语言的早期迭代。
我有机会在上周的TechCrunch Disrupt上与Eyefluence的首席执行官和创始人Jim Marggraff进行了对话,我们讨论了他们眼睛交互模式的优点和缺点,以及在演示中进行了原型开发的一些应用。
Eyefluence的核心原则是让眼睛自由行动,Jim声称使用他们的系统的延续时间不会导致任何可衡量的眼疲劳。尽管Jim承认,未来大多数虚拟现实和增强现实交互将是手、头、眼睛和语音多模式结合,但Eyefluence希望通过仅使用眼睛推动边界,看看可能性有多大。
在看到他们的演示之后,我确信在虚拟现实和增强现实的3D用户界面中使用眼睛交互是有其适用场景的。虽然眼睛自身能够完成一些令人惊奇的事情,但我认为大多数人不会只想要使用眼睛。在移动VR或增强现实应用中,我可以看到Eyefluence的眼睛交互作为主要或唯一的交互机制工作得很好。但更有可能的是,眼睛交互将被用来辅助和加速选择任务,同时使用手柄的物理按钮和沉浸式应用中的语音输入。
以下是我在2016年增强现实世界博览会上见到的Jim进行演示的简略版本:
Voices of VR支持
在iTunes上订阅
通过Voices of VR Podcast Patreon进行捐赠
音乐:Fatality&Summer Trip
0