The Voices of VR Podcast
你好,我的名字是 Ken Bai,欢迎来到《The Voices of VR Podcast》。这是一个探讨沉浸式叙事结构和形式以及特殊计算未来的播客。你可以通过 patreon.com/voiceofvr 支持本播客。
MetaConnect 2025 报道
让我开始谈谈我对 MetaConnect 2025 的报道,首先是我与 Norm Chan 的采访。他是 tested.com 的执行编辑和联合创始人。他提前了解到今年 MetaConnect 最大的硬件宣布,即全新的 Meta Ray Ban 显示眼镜和 Neural Band,这是一款由 Control Labs 制造的 EMG 手环,Meta 已收购了该公司。这两款产品代表了他们去年所展示的转变,即 Orion AR 眼镜,这是他们最终所追求的外形。
但从这款带有 600 x 600 显示屏的 HUD 二维计划开始,同时还有这款我认为是今年 Meta Connect 最大亮点的新产品 —— 神经手环。它代表了人机交互的愿景,我们可以使用手指的小而微妙的手势进行控制。他们首步将你的手变成一个电视遥控器,有一个双轴的 D-pad,你可以用拇指和食指左右滑动,上下滑动,然后用拇指与食指捏合来接受指令,或用中指与拇指捏合在 UI 中后退。所以我更认为这是一种手势操作的电视控制器。
Norm Chan 的体验分享
我有机会与 Norm 谈论此事,因为在 MetaConnect 的这一时刻,还没有进行主题演讲,并且在正式宣布之前,我有机会参加了新闻发布日的一些演示,但未被邀请进行早期访问演示。我只是在主题演讲后参加了一个简短的演示,我注意到他们没有询问我的处方,而我有 -5.5 的视力处方,而 Meta AR 显示眼镜的处方范围仅为 -4 到 +4,并且没有添加处方插入片。因此,如果你最终去看看演示,你只能在 Best Buy 或者他们即将推出的 MetaLab 商店购买。
他们将在 9 月 30 日推出这款产品,价格大约为 800 美元,捆绑 Meta AR 显示眼镜和神经手环。我再说几句,因为我认为这款产品正在向 AR 眼镜的愿景迈进,但他们也将其称为 AI 眼镜,因为他们将主要用例视为人工智能。所以,他们可能正以 800 美元的价格进行补贴,这可能成本更高,他们正在进行这种亏损引导,以推动市场的进入,让更多人使用这种类型的眼镜,配备摄像头、麦克风和扬声器,以便在日常生活中开始与人工智能进行交互。
最大的悬而未决的问题是在 MetaConnect 的第二天发布之前,即开发者是否会获得任何访问权限。他们在开发者主题发言结束时宣布了一款可穿戴设备访问工具包,这将处于预览访问阶段,仅适用于现有的 Ray Ban Meta 眼镜,将提供摄像头、扬声器、麦克风的访问权限。同时,并无关于 Ray Ban 显示的访问权限,比如获取 HUD 等等。因此,如果你是手机应用程序开发者,你可以开始为可穿戴 AI 眼镜提供访问,以便做更多的对话界面,让它们拍照并识别,接管扬声器并播放各种音频。有很多我谈过的人最终将他们现有的 Ray Ban Meta 眼镜作为音频设备使用,这也是 Norm 的用法。
后续讨论
我还将在接下来的采访中和 Anshao Song 一起深入探讨 Vanguard Oakley 眼镜以及其他关于 Veya 眼镜的相关宣布。我将逐步解读我在 MetaConnect期间和十几个采访中看到的一些最重要的新闻。因此,我认为这代表了一个更大的移动和转变,称为 Reban Meta 智能眼镜,成为了近年来消费技术中最成功的推出之一。
因此,他们看到大量的动能,正在逐渐跨入主流,许多完全不参与 XR 行业的人发现这些眼镜的实用性,能够访问摄像头,还可以作为蓝牙扬声器和麦克风使用,同时实现更多无障碍计算。
当我听到 Boz 和扎克伯格在采访中所说的时,他们提到他们查看了人们在手机上的前十件事情,并希望如何开始创建像 Meta Ray Ban 显示眼镜这样的设备,添加那些第一个方应用,这样你随时无需掏出手机查看。因此,从拍摄照片和视频,到文本消息和沟通。并且在主题演讲中展示了这一点,我认为 Victoria Song 是唯一一位确实体验了神经手环的记者,它让你的手指变成了写字母的工具,用食指书写,然后这个动作能够转化为交流。马克·扎克伯格表示,他可以以每分钟大约 30 个单词的速度输入。因此,随着时间的推移,他们将适应这些用户界面的创新,尤其是在神经手环方面。
这是向前发展的最重要宣布之一。我认为这是和 VR 的一次小转变。这次确实进行了 VR 演示,但没有邀请任何 VR 内容创作者。老实说,今年我得为获得邀请和新闻通行证而奋斗。我成功获得了参与并进行报道的机会,像往常一样,但这并不是理所当然的。所以,我会尽力覆盖今年 MetaConnect 的所有其他方面,透过这一系列的采访。
对话开始
那么今天节目开始,和 Norm 的采访是在 2025 年 9 月 17 日,在 MetaConnect 会议上进行的,地点是位于加利福尼亚州门洛帕克的 Meta 总部。现在,让我们开始吧。
你好,我是 Norm Chan,我是 tested.com 的执行编辑,我们的 YouTube 频道“测试”的一员,已经覆盖 XR、VR、AR 头盔将近十四年了。
Norm 的背景与旅程
太好了,也许你可以多谈谈自己的背景以及你进入这个领域的旅程。
好的,你知道,我是用 Oculus DK1 尝试 VR 的。显然,我并不在 PC 游戏领域,因此我对这些游戏如何适应 HMD 非常感兴趣。从那时起,我很幸运地与许多制造头盔的公司进行了交流,尽可能多地尝试各种头盔。尽管几年前我被邀请到 Reality Labs Research 试验了一些他们的原型,但是很有趣的是,今年的 Meta Connect 并不是关于头戴设备,也不是关于 VR 而是关于智能眼镜。
智能眼镜的转变
我们确实看到从 XR、VR、混合现实向这些人工智能驱动的智能眼镜的转变。是的,你提到你现在佩戴的眼镜基本上就是过去两年来你一直在佩戴的 Ray Ban Meta 智能眼镜。也许谈一谈你使用这些眼镜的体验。
当然,我认为每个人都记得,Ray Ban Stories 并不是非常成功,对吗?所以这是一个很好的合作,看起来像 Ray Ban,他们把形式因素做对了。它们是摄像头眼镜,还算不错,但确实更像是眼镜而已。两年前,伴随着 Quest 3 的发布,他们推出了 Ray Ban Metas。我参加了新闻发布会,第一次看到 Wayfarer 框架和他们决定放入的一些功能,比如稍微的直播到社交平台,高质量的视频录制和扬声器。这让我感觉可能我想试一下。
结果是,我当时佩戴的眼镜和我长时间佩戴的 ID 视觉 ID 看起来非常像 Wayfarer 眼镜。所以,我在想,好的,我可以将一种风格的黑框眼镜换成另一种风格。我开始佩戴 Ray Ban Metas,但实际上我对实时直播并不在意,甚至视频录制和拍照也没太在意。照片还行,你知道在评估产品时会进入一个过度使用阶段,前几周拍了很多照片。过去几年,我偶尔才拍一张照片。这对我来说,最重要的是作为一个音频设备,听音乐、听播客、打电话。我喜欢,可能现在听起来有点陈词滥调,散步时听播客,而不是像 AirPods 一样把东西插到耳朵里。它们也不是骨传导,但依然是那种直接对着我发声的耳机,而不是让我隔绝外界。
Meta Connect 现场体验
在这次 Meta Connect 中,我们即将举行的主题演讲将在一个小时左右开始,马克·扎克伯格将宣布许多事情。我们已经有整天的新闻演示,对于即将宣布的一些产品。你也有机会看到一些闭门演示,包括更多的单目显示和 Control Labs 的 EMG 手环。希望听到一些关于这些智能眼镜的更多印象和初步的想法,尽管它们不是混合现实,也不是完全的 VR,但在通往更像 Orion 的外形的路上。
是的,有趣的是,去年有 Orion,显然这是他们的高端、北极星,所有能够放入现实增强眼镜的技术,因为这些具备强大的世界跟踪、室内外跟踪,它们能够识别世界,能够将全息图像对齐到空间。但这些不是,那些是抬头显示眼镜。我不知道我们是否有一个关于它们的名字的共识,智能眼镜、AI 眼镜,显然 AI 眼镜更流行,因为无论是谷歌、三星、Meta,甚至最终可能的苹果,他们希望这些眼镜成为连接其服务、AI 服务的一种方式。
但目前他们推出的基本上是 Ray Ban Metas,但在右镜片上增加了一个抬头显示。他们称之为 Meta Ray Ban Display。因此,Ray Ban Meta 是上一代,而这是新的 Meta Ray Ban。他们把名字调换了,以宣传 Ray Ban 品牌。这些眼镜更厚、更粗,腿部也更高,以容纳处理器和电池。最明显的是,它们在右侧具备波导设计,拥有 20 度的视野,600 x 600 像素,他们说这是每英寸 42 像素。因此它的每度像素并非是很高,但仍然是清晰可读的。
他们创建了一个全新的操作系统,以显示之前只能通过音频获得的信息,如今可以在 POP-UP HUD 上获得。
展示体验回顾
如果可以描述一下框架,它们是靠下的吗?还是在中间?你是如何描述它的位置在右镜片上的?
对,是 20 度的视野。虽然显示屏是 600 像素 x 600 像素,但内容更像是狭窄的 3:4 纵横比。你确实是有一点向下看,如果你正向前看,并没有在你的视野的正中心。你会看到稍微低一些的位置。20 度的视野并不感觉像是一条纤细的内容,它实际上在文本或图像的呈现上是有意义的。如果你放上一个完整的实时摄像机预览,像纵向照片,它的比例是 9:16,你可以辨认出细节。
与几年前的 Google Glass 相比,它的可读性更高,并且显然还有更多机会展示不仅仅是图形数据的信息。这些应用程序大多数是第一方服务,比如消息、实时摄像预览、导航,甚至音乐播放,像你能看到专辑,暂时没有网络浏览器或 RSS 提要。
我想了解一下在体验这个产品的过程中,你所看到的演示?
是的,当然。在这些眼镜旁边,还有 Control Labs 的 EMG 手环。这绝对是我在去年 Orion 看到几乎完全相同的设定。他们在去年暗示这是一件他们非常有信心和骄傲的事情,能够进入产品。很有趣的是这两款可穿戴产品是捆绑在一起的,它们几乎可以独立工作。这些眼镜技术上并不需要手环就能运作,手腕上的触控板可以作为导航的使用。
手环技术上也不一定要作为眼镜的控制界面,它可以作为各种计算的控制界面。但是他们想将这两者结合在一起,显示了他们的思考方式;一是他们的优势所在,二是关于用户体验的整体提升,因此演示的设计是通过弹出的 HUD 获得信息的,可以通过小手势,比如用拇指与食指摸一下、拇指与中指轻敲一下、做出类似触控板的动作,以及通过向上和向下刮动的手势来操控。
再加上一个新的手势,轻点并捏合,然后旋转你的手腕,就像调节音量旋钮,这样能够当作一个精细滑动条。我必须说,这些手势工作良好,没有训练或校准,你只需将手环戴上。你需要将手环穿得紧一点,因为每个人的手腕形状不同,肌肉、神经和骨骼的分布也不一样。但我觉得准确率相当令人印象深刻。从而你可以借此导航去调阅各种标准的信息,比如信息、视频通话,甚至能进行 WhatsApp 的视频通话。
他们目前没有 Instagram Reels 应用,但有一个让你预览 Reels 的快捷方式。导航功能让我没有预料到,但通过 AI 助手进行导航是可能的,查询最近的咖啡馆之类的信息,然后在 HUD 上提供步行路线。
关于 GPS 和技术的思考
对于位置,是否包含 GPS 接收器,还是全部来自于手机?
我想这是来自于手机的。我认为它有一个指南针,但主要依赖手机的流媒体支持。这款 Meta AI 应用程序,你知道,虽然它并不技术上作为计算机的处理器,但它的手机实际上是计算的。所有的查询都发送到手机的 Meta AI,然后完成任务。
还有字幕功能,我认为实时翻译是一个组成部分,因为他们是 Rayman Metas 的一部分,但他们演示给我的是实时字幕功能,通过方向性麦克风。如果你坐在餐桌的另一侧与某人交谈,他们模拟了一种嘈杂的环境,许多其他人聊天的情况下。面对面的人跟我说话,他们说出来的话在我手机屏幕上弹出,类似于实时转录,就好像你在给手机口述一样,这挺不错的。
最终我想是否还有其他演示你想提及的?
HyperScape 我觉得很酷,那些还没有尝试的人应该去试试,可以在第一人称视角下探索加尔维斯顿。在那种环境中的捕捉开辟了一个更大的机会。对我来说,我想要捕捉我孩子卧室的样子,因为它们将来会改变,那些空间以及我与之相关的变化。对于我来说,能够以这种方式快速捕捉这些空间确实很有用。
Meta 对 AR 和 AI 的未来
当然,他们希望将其引导到 Horizon Worlds,那是他们的重头戏。在与产品设计师的对话中,他们预见未来有高斯点作为环境捕捉,能够和网状对象及其捕捉一起共存,还作为一个社交空间。尽管这些在现在并不可用,但这类型的内容在实现虚拟元宇宙的愿景中是至关重要的。
最后,关于 Meta 似乎正在转向这些 AR 眼镜与智能眼镜,以及今年在 VR 方面的重心有所减弱,你有什么看法?
我认为所有关注 Meta 和 Quest 生态系统的人都有些紧张,因为这确实感觉像是一个转变。希望他们能够实现不同领域的结合。他们在 Reality Labs 研发上投资了那么多钱,显然面临一些硬件设计方面的难题,他们的某些东西必然会趋于融合,但仅靠游戏并不足以支撑一个 Meta 规模的业务。所以只要在内容方面仍有投资,我觉得他们仍会发布 Quest 头盔。这至少是我的希望。
XR 与 AI 的潜力
你认为 XR AI 的最终潜力可能是什么?它可能实现什么?
哦,天哪,我知道你每次都问这个问题。每次都没有改变,答案在这些年间无比演进。我认为混合现实正在变得越来越可能。SLAM 跟踪技术的微型化几乎是解决的问题。我记得刚开始 SLAM 世界跟踪的时候,需要多个相机。AI 和机器学习在输入跟踪和在混合现实设备中的应用,这些都让我感到兴奋。物理与数字世界的交汇似乎是不可避免的。
寄语 XR 社区
还有什么想对更广泛的 XR 社区说的吗?
没有,我的意思是,我们在这一旅程中一起经历了起伏,以及转变。我希望人们仍对新兴技术感兴趣。我知道有一些虚拟现实爱好者可能会感到失落,但我想说,仍有很多精彩的事情在发生。在视频中,他们展示了有人在桌子上写字,几乎可以说是可以检测书法。我不知道你是否看过那个演示或听说过,自己没有参与,但演示者确实进行了手写演示,他们将手放在腿部,假装书写。看起来并非草书,但他们在消息应用中写了一个句子,能够没有任何错误地输入。他们都表示,没有训练,不需要额外的训练。
我认为他们将可能在未来开放这个功能给早期访问的测试版。这不会是一个默认的功能,需要用户选择加入。但这确实展示了 EMG 能达到的潜力,因为如果仅仅是轻击手势,那么我们今天在手表上也能做到较好的轻击手势。很多我在 AWE 上见到的酷炫功能都是基于加速器和旋转器数据的,因此这不光是简单的轻击。
关于 EMG 手环的未来
你认为是否会有人像这样使用两个 EMG 手环?因为你知道,输入速度确实会更快。所以我想了解是否在某个时刻,他们可能会添加第二个 EMG 手环,以便进行更多双手交互,或许能够更高效地输入。
我认为只是根据我们从 Control Labs 得到的研究,完全是显而易见的——不论他们是否会产品化,这又回归到他们是否想要去生产输入配件的问题。当假设他们的手环成本与其他外设相当时,像是100美元的键盘、游戏鼠标等。就没有理由不考虑100美元的手环。其一只手环的效用是好的,拥有两只手环可能会更加有效。但在这方面你也要考虑到软件投资,所以他们也许会发觉非主手的效用会低很多。
未来技术的这对组合
电池续航的问题,我想问的是他们预计续航会是怎样的?这会如何影响电池?他们提到是六个小时,并且用充电盒可以达到三十个小时。他们没有说明你多频繁地打开显示,而我想了解一个问题,人们不知道显示是否一直在开启,它并不是一直开启。在你收到通知时会唤醒,但在正常使用中,我敢肯定实时摄像机视图的消耗会更多,这些都在眼镜内部进行处理。但即使是六小时,对于我来说,这是与 Ray Ban Metas 的主要问题。我知道最新一代的续航时间已达八小时,而现在的型号比第一代的 Ray Ban Metas 要更长。
但我会积极关闭物理开关,并关闭语音激活以节省电池。这对于我来说主要是作为音频的使用场景。如果我开始录制视频,电池消耗就迅速增大。而且,它并没有添加可更换的电池。我使用这些眼镜已经两年了,你会想想消费者产品的使用年限,像是手机,消费者通常会使用数年。如果电池在这款800美元的产品上到最后只有50%的电量,那将是一个大问题,这将始终是一个问题。
对 HyperScape 的讨论与期望
我知道你有机会观看 HyperScape 的演示,还有其他想要提及的演示吗?
HyperScape 我觉得真的很酷,那些还没有尝试的人应该去试试,能够在第一人称视角下探索加尔维斯顿。这种捕捉技术为我打开了一个很大的机会。对于我来说,我想要捕捉我孩子卧室的样子,因为这些空间会变化。这是这种方式快速记录它们的另一种方式。但显然,他们希望将其引导到 Horizon Worlds,这就是他们的重要目标。在与产品设计师对话时,他们预见着,未来具备高斯点作为环境捕捉,并与网状对象和网络捕捉共同存在,也将创造一个社交空间。现在这些功能并不可用,但这些内容在实现虚拟元宇宙的愿景中是至关重要的。
结束语
再次感谢 Norm 加入我的播客。期待你将发布的几乎 60 分钟的深度视频,期待你能立即揭晓所有新内容的精彩信息。我总是非常感谢你的技术深入探索,你非常了解技术,并对现在的技术及它未来的可能性有着训练有素的眼光,因此我总是很感激听到你对最新宣布的软件反思。非常感谢你再次加入我本次采访。
再次感谢你收听本期《The Voices of VR Podcast》。如果你喜欢这个播客,请将其传播给你的朋友,并考虑成为 Patreon 的会员。这是一个播客的组成部分,因此我在这一覆盖中依赖于像你们这样的捐款。所以你可以成为会员并立即捐助至 patreon.com/voiceofvr。感谢收听!