Nweon

nweon 文章

〔视闻〕VR游戏《Stunt Corgi VR》

这款游戏中,玩家需要训练一只狗狗成为最厉害的特技表演者。玩家可以自由设计训练场所,并为狗狗装扮不同的样式。

〔视闻〕未来的新闻中心?《CNN VR》已上线Oculus Home

近年来,增强现实(AR)和虚拟现实(VR)技术在各个领域得到广泛应用,包括教育、医疗、娱乐和工业。AR和VR技术的快速发展为用户带来了全新的沉浸式体验,使他们能够与虚拟世界进行互动、学习和娱乐。 AR和VR技术在教育领域的应用越来越受欢迎。学生可以利用AR技术进行实时虚拟实验、学习语言、参观远程地点等,提高学习效果。医疗行业也使用AR和VR技术来进行手术模拟、疾病诊断和康复训练。娱乐领域的应用包括虚拟游乐园、互动游戏和虚拟现实电影。 AR和VR技术也在工业领域发挥重要作用。它们可以用于设计和模拟工业产品,提高效率和精确度。另外,AR和VR技术还可以用于员工培训和安全训练。 随着AR和VR技术的不断创新和发展,它们有望在未来扮演更加重要的角色,并为不同行业带来更多的机会和挑战。

把Oculus Touch挂接不同物体对象,实现各种创意定位追踪

HTC的Vive追踪器能将真实世界的对象带入虚拟现实(VR)中。例如,将追踪器附加到高尔夫球杆或棒球棒上,可以实现更真实的运动员体验。为了与Vive追踪器竞争,Oculus为其Touch控制器设计了一个挂接口,该适配器主要用于支持游戏的塑料吉他配件,测试显示适配器的效果非常好。此外,Oculus还提供了官方的Touch配件指南文件,其中包含电池仓和适配器等元件的CAD文件。只要拥有3D打印机,就可以创建支持Touch控制器的挂接口。Touch控制器还可以附加到其他真实世界的对象上,例如棒球棒、模型枪支等,只要发挥创意,就可以实现不同的效果。然而,在将Touch控制器附加到对象上时,需要注意不遮挡传感器以及避免放置在有闪光灯的地方,另外使用临时粘合剂并固定腕带也是需要注意的。
把Oculus Touch挂接不同物体对象,实现各种创意定位追踪

无绿幕MR特效,谷歌开源AI语义分割模型DeepLab-v3+

根据映维网的报道,谷歌利用AI技术实现了视频背景分离,这涉及到语义图像分割技术。语义图像分割是指将诸如“道路”、“天空”、“人”、“狗”等语义标签分配到图像中的每个像素,从而实现新的应用,比如在Pixel 2和Pixel 2XL人像模式中的合成浅层景深效果和实时视频分割。 谷歌在GitHub上开源了最新的语义分割模型DeepLab-v3+,这个模型是基于强大的卷积神经网络(CNN)骨干体系架构构建的,旨在应用于终端设备。谷歌分享了Tensorflow模型训练与评估代码,以及预先训练的Pascal VOC 2012和Cityscapes基准语义分割任务模型。 自Deeplab模型首次出现以来,谷歌对CNN特征提取器、对象比例建模、情景信息同化、训练过程和硬件软件进行了优化,推出了DeepLab-v2和DeepLab-v3。在DeepLab-v3+中,谷歌添加了简单有效的解码器模块,以细化分割结果。谷歌还将深度可分离卷积应用于空间棱锥面缓冲池和解码器模块,形成更快速、更强大的语义分割编码器-解码器网络。 谷歌希望通过与社区分享他们的系统,帮助学界和业界的其他团体更容易地进行复刻、优化系统,以及为这一技术设想新的应用。
无绿幕MR特效,谷歌开源AI语义分割模型DeepLab-v3+

Unreal 4.19正式发布,为iOS、安卓提供统一AR项目框架

Unreal Engine是一款流行且功能强大的游戏开发引擎,它在许多VR和AR游戏中被广泛使用。最新发布的Unreal 4.19版本为VR/AR开发者和创作者带来了一系列优化和全新功能。这些功能包括Unified Unreal AR Framework,该框架允许开发者在iOS和安卓移动设备上开发AR应用程序时只需采用单一的开发路径,无需为不同平台构建不同版本的应用程序。此外,Unreal还提供了Unified Unreal AR Framework Project Template,其中的HandheldAR Blueprint提供了一个完整的示例项目来演示最新的功能。此外,Unreal Engine 4.19引入了Live Link功能,为流式广告提供了一个通用界面,用户可以引入第三方平台的动画数据,例如运动捕捉,通过Live Link用户可以捕捉来自Rift和Vive等头显运动控制器的信息。
Unreal 4.19正式发布,为iOS、安卓提供统一AR项目框架

Bosch为AR-VR发布新六轴IMU传感器

德国传感器技术公司Bosch Sensortec最新推出的BMI085 IMU在上海电子展上亮相,该IMU主要用于增强现实(AR)和虚拟现实(VR)硬件。这款IMU采用了3轴16位MEMS加速度传感器和3轴16位MEMS陀螺仪,并将其集成在体积为3mm x 4.5mm x 0.95mm的立方体中,以实现更逼真的体验。Bosch声称此IMU可以实现低于3毫秒的延迟,并且由于闭环陀螺仪和加速度计的低噪声设计,系统非常稳定。此外,新款IMU还与之前的BMI055兼容,降低了集成的难度。这款IMU的目标是解决AR和VR界面中的晕动症和沉浸感问题,这些问题通常由于头部运动和屏幕响应之间的延迟引起。由于晕动症是AR/VR行业的重大挑战,因此以减轻晕动症为目标的技术解决方案变得迫切。
Bosch为AR-VR发布新六轴IMU传感器

Magic Leap手语、文本翻译系统为听力、言语障碍者提供有效交流

根据最新公布的专利,Magic Leap正在开发一种手语与文本翻译的方法,以帮助聋哑人士进行交流。该专利描述了一种混合现实系统,能够识别和翻译手语,并将翻译信息显示给设备用户。这种技术不仅可以实现手语人士与非手语人士之间的无缝沟通,还可以帮助全球范围内的手语用户进行有效的交流。 该专利还涵盖了文本翻译功能,可将用户环境中的文本识别和修改,并以修改后的文本来覆盖原始文本。这种功能可以解决外国旅行者的语言障碍。 此外,该专利还提到了改善文本显示质量的方法,包括调整字体大小和增加文本清晰度的标志。 尽管Magic Leap的主要市场是游戏和娱乐领域,但这些基本的辅助功能可以帮助他们进一步融入大众生活,并使其产品更加必不可少。
Magic Leap手语、文本翻译系统为听力、言语障碍者提供有效交流

真大街格斗,开发者用ARkit复活经典游戏《街霸2》

开发者Abhishek Singh为iPhone和iPad等移动设备开发了《街霸2》的AR版本。游戏可以在桌上或真实街道上进行,支持多人模式。Singh利用ARKit将内容瞄定在水平表面,玩家可以将手机指向同一个表面并加入战斗。Singh表示愿意在App Store上发行这款游戏,但需要首先解决版权问题。这个实验展示了MR/AR的无限可能,在未来有可能看到真正的多人MR/AR版《街霸》在世界各地的街道上出现。作为经典游戏的粉丝,希望在AR中看到更多经典游戏的复活。
真大街格斗,开发者用ARkit复活经典游戏《街霸2》

谷歌光场技术诠释了体三维视频捕捉的强大潜力

谷歌日前在Steam上免费发布了名为《Welcome to Light Fields》的PC VR应用,旨在展示谷歌用于驱动下一代VR内容的新兴技术。相比于360度照片和视频,谷歌的光场技术可以捕捉整个场景,并在观看时允许用户自由移动头部,从不同角度浏览场景。通过光场技术,用户可以在动态的环境中移动头部,感受到真实世界的运动。然而,这种技术也存在一些限制,例如文件大小和场景的不完美之处。《Welcome to Light Fields》的静态光场场景总共约6GB,这在规模化普及方面仍然是个挑战。尽管如此,该应用仍然为光场技术的展示提供了一个不错的范例。
谷歌光场技术诠释了体三维视频捕捉的强大潜力

与高通合作,Tobii将为骁龙845 VR一体机提供眼动追踪技术

Tobii宣布与高通合作,为基于高通骁龙845移动VR平台的VR/AR头显提供眼动追踪技术。双方将共同创建完整的参考设计和开发套件,包括眼动追踪算法和硬件设计。此合作能带来以下功能和益处:1)注视点渲染,设备可以确定注视点位置,实时将高清图形处理能力应用于该位置,提升显示屏的清晰度和设备的效能、续航能力和便携性;2)瞳距,设备可以自动定位图像与用户的瞳孔对齐,适应不同用户,提高虚拟现实和增强现实的视觉质量;3)手眼协调,将眼睛与双手和控制器协调一致,实现自然的交互和沉浸;4)互动式眼睛交流,设备实时追踪注视点,创作者可以表达眼睛交流这一基本维度,为社交提供全新的沉浸式媒介。 作为SOC供应商,高通旨在成为头显设备厂商的关键技术合作伙伴。对Tobii而言,此合作证明了将眼动追踪技术集成至VR/AR头显的需求和效益。值得注意的是,国内眼动追踪技术厂商七鑫易维也曾获得过高通的战略性投资。
与高通合作,Tobii将为骁龙845 VR一体机提供眼动追踪技术