/ Roadtovr / 0浏览

亲身体验:IBM Watson 为《星际迷航:舰桥指挥官》带来语音指令功能

IBM Watson,人工智能平台,旨在理解自然语言,今天在PSVR、Oculus Rift和HTC Vive上推出了对《星际迷航:舰桥Crew》(2017)的支持。

在今天推出该服务之前,单个玩家可以通过点击几个框来控制船上的其他岗位——工程、战术和舵手——以发布命令。现在,一个单独的舰长(也可以有人类和非人类的混合船员)可以通过自然语言直接向非人类角色发布命令,完成整个任务。
(图片来自IBM)
语音命令由IBM的VR语音沙盒程序实现,该程序可在GitHub上提供给开发人员,使其能够将语音控制集成到自己的VR应用程序中。这个沙盒在五月份发布,结合了IBM的Watson Unity SDK和两个服务,即Watson语音转文本和Watson会话。
在舰长椅上,这张图片由Road to VR捕捉
我们在2017年E3展会上有机会亲身体验了带有Watson技术语音识别功能的《星际迷航:舰桥Crew》。在游戏过程中,只需按下一个按钮即可激活这个功能。虽然直接与你的数字船员交流确实提供了一些标志性时刻(比如“出发!”和“开火!”),大多数命令都能顺利执行,但Watson仍然很难解析一些非常基本的东西。例如,Watson无法理解当你使用船只的名字时,“扫描波拉里斯”就无法被识别。Watson也没有理解到一些在表面上似乎很简单的事情。命令如“对目标开火”、“对敌人开火”和“咱们加速跃迁吧!”都没有被Watson听到。

IBM表示,他们的VR语音控制不是“关键字驱动的交互”,而是围绕自然语言和背后意图的识别构建的。Watson还具有随着时间推移改进其理解能力的能力,所以某天,“让这些该死的机器人滚蛋!”可能会被正确解读。
然而,当与由机器人控制的NPC交流时,会发生一种非常奇怪的逻辑断裂,原因在于起初我给NPC赋予了实际的智能。当直接与他们交流时,我本能地依赖他们自然地帮助我完成工作,有眼睛和耳朵,并且不仅能理解我的言辞意图,还能理解任务的目的。一个人类的战术官会看到我们正在受到攻击,我就不必下达将鸟翔隼保持在相位炮射程内的命令了。我甚至不必选择目标,因为舵手会替我完成。IBM并不声称其认知计算平台可以做到这一切,但是要搞清楚Watson能做什么以及不能做什么的挫败感是一个骨感的现实,尤其是当你的飞船在最后的边界中被打得体无完肤时。
综上所述,虽然支持Watson的语音指令可能不是完美的——当红衣兵们一个接一个倒下,控制台四处爆炸,你最不想做的就是花时间重复一个重要命令——但是事实上你可以与VR中的NPC交谈并得到相当可靠的回应,这是非常了不起的。

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注