/ Roadtovr / 0浏览

Snap计划在明年推出新的消费类“Specs”增强现实眼镜。

Snap,背后的公司Snapchat,今天宣布正在研发其Spectacles AR眼镜的下一代(又称‘Specs’),预计将于明年公开发布。

Snap首次在2024年底将第五代Specs(Spectacles ’24)专门提供给开发者,然后通过教育折扣计划在2025年1月向学生和教师开放销售。
今天,在AWE 2025上,Snap宣布将推出更新版本的AR眼镜,计划于明年公开发布,Snap联合创始人兼首席执行官Evan Spiegel调侃称这将是“更小的尺寸、更轻的重量,功能也更多。”
除了2026年的发布窗口,目前尚未透露定价和可用性。此外,我们甚至还没有看到相关设备,尽管我们打赌它们不会像这些那样笨重:
Snap Spectacles ’24 | 图像来源 Snap Inc
Spiegel还指出,其拥有的四百万个Lens库,能够在AR中增加3D效果、物体、角色和转变,将与即将发布的Specs兼容。
虽然公司现在不谈具体规格,但2024年推出的版本通过立体波导显示器提供46°的视场角,包含自动调光和双液晶硅(LCoS)微型投影仪,拥有每度37个像素。
作为一个独立单元,该设备配备双高通Snapdragon处理器、用于空间音频的立体声扬声器、六个用于语音识别的麦克风,以及两个高分辨率彩色摄像头和两个红外计算机视觉摄像头,以实现6DOF空间感知和手部跟踪。
无法预知下一个版本的这些规格将如何变化,尽管我们当然希望电池续航能超过原版的45分钟。
Snap Spectacles ’24 | 图像来源 Snap Inc
随着公司准备发布首款公众可用的AR眼镜,Snap还宣布了Snap OS的重大更新。关键增强功能包括与OpenAI和谷歌云的Gemini的新集成,允许开发者为Specs创建多模态的AI驱动的Lens。这些包括实时翻译、货币转换、食谱建议和互动冒险等功能。
此外,新的API被称为扩展空间和音频能力,包括深度模块API,它将在3D空间中锚定AR内容,以及自动语音识别API,支持40多种语言。公司的Snap3D API也被称为能够在Lens中实现实时3D对象生成。
对于构建基于位置体验的开发者,Snap表示还将推出车队管理应用程序、无缝Lens启动的引导模式以及AR导览的引导导航。即将推出的功能包括与Niantic Spatial VPS的集成和WebXR浏览器支持,能够实现一个共享的、AI辅助的世界地图,并扩大对WebXR内容的访问。
将Specs发布给消费者可能使Snap处于一个独特的位置,成为首个市场先行者;包括苹果、Meta和谷歌在内的公司仍未发布自己的AR眼镜,但消费者应该预期在这个十年内竞争将加剧。总体共识是,这些公司希望占据AR的显著份额,因为许多人希望这一设备类别将在未来取代智能手机,成为主导的计算范式。