Meta今天宣布计划为Quest 3更新具有类似功能的人工智能视觉特性,类似于该公司最新的Meta Ray-Ban眼镜。与此同时,苹果仍未确认苹果智能特性是否将在今年秋季与其他苹果设备同时推出Vision Pro。
Meta将人工智能投资视为其与XR研发的另一个重要领域,现在该公司开始将这两者结合起来,提供面向消费者的人工智能功能。
Meta表示,今年夏天晚些时候,美国和加拿大将推出Quest 3的更新,启用”Meta AI with Vision”功能。该功能将赋予头戴显示器人工智能语音聊天功能,并允许头戴显示器”看到”用户实际视野中的物体。用户可以提出一般性问题,也可以查询眼前的事物。Meta在公告中给出了一些例子:
假设你正在观看一些壮丽的混合现实徒步旅行的YouTube视频,同时收拾行李准备去约书亚树。你可以询问Meta AI如何最好地根据夏天的气候穿着。或者你可以拿起一条短裤,说:”看看告诉我应该配什么样的上装。”你可以获取天气预报,以准备未来的天气,甚至询问当地餐厅推荐,满足你内心的美食家。
或者说你正在头戴设备进行音乐欣赏,同时在虚拟大屏幕上写论文。你可以问Meta AI识别莎士比亚的《哈姆雷特》中一些最令人难忘的引用,并解释”生存还是毁灭”的独白或戏剧中的戏剧的意义。
当你在玩《刺客信条®Nexus VR》时,你可能正在屋顶上进行跑酷,并对其产生了好奇心。为什么不问一下Meta AI在殖民时期的波士顿是否有真正的刺客?答案也许会让你惊讶……
就目前而言,摄像头只能看到真实世界中的物体,而无法意识到设备显示的虚拟内容。Meta在透露”Meta AI with Vision”功能最终可能会包括真实世界和虚拟世界的意识。
不幸的是,Meta确认这个功能不会适用于Quest 2或更早的设备(很可能Quest Pro也不会得到该功能)。
Meta没有提到此功能的请求是在设备上处理还是在云端处理,也没有涉及加密等问题,尽管它确认该功能是基于必应人工智能。该公司尚未回应我们有关隐私架构的更多信息请求。
虽然Meta正在向其设备快速部署人工智能功能,但苹果尚未确认其所谓的”苹果智能”功能是否适用于Vision Pro。
今年年初,苹果宣布将在秋季beta版中推出一系列Apple Intelligence功能,包括iPhone、iPad和Mac。尽管同时宣布了visionOS 2,但尚未确认任何适用于Vision Pro的Apple Intelligence功能。这使得不确定该头戴显示器是否会在与其他苹果设备同时获得任何Apple Intelligence功能,或者用户是否需要等待后续版本的VisionOS。
苹果表示,许多Apple Intelligence功能是在设备上处理的,但一些请求(包括依赖于ChatGPT的请求)将要求在设备之外进行处理。苹果声称,在设备之外的请求”永远不会存储您的数据”,”仅用于您的请求”,并且苹果将提供后台代码以供隐私审核。