硅谷AR波导元件DigiLens完成2500万美元C轮融资

德国汽车制造公司大陆集团增加了对硅谷波导公司DigiLens的投资,为其带来了2500万美元的C轮融资。大陆集团最初在2016年参与了DigiLens的2200万美元B轮融资。加上这次C轮融资,DigiLens的总融资额达到了6000万美元。DigiLens主要为OEM厂商提供用于AR头显的眼镜式细薄型显示器,以及用于汽车、航空电子设备、零售和建筑的大型显示器。尽管大陆集团的投资主要集中在汽车平视显示器方面,但该公司声称他们已经开发出了低成本的技术,可实现用于AR头显中的小型波导管的进一步突破。大陆集团平视显示器产品开发主管Thorsten-Alexander Kern指出,波导技术在广阔市场中实现增强现实平视显示器具有巨大的潜力。DigiLens和大陆集团认为波导是下一代汽车平视显示器的基础。在新一轮的投资后,大陆集团现持有DigiLens近18%的股份。
硅谷AR波导元件DigiLens完成2500万美元C轮融资

简述HoloLens模拟器是怎么工作的

HoloLens模拟器是一款能够模拟HoloLens环境和人类输入的虚拟机。模拟器可以使用Xbox控制器或者键盘鼠标进行控制,效果与在真实的HoloLens上运行应用程序相似。控制模拟器类似于控制3D游戏,使用Xbox控制器或者鼠标键盘的输入会移动穿戴HoloLens的模拟用户,应用程序会将你的输入理解为来自真实HoloLens的输入。启动模拟器后,可以通过工具栏上的九个按钮来操作模拟器。点击“附加工具”的按钮可以看到更多选项,包括模拟传感器、模拟房间和网络选项等。模拟器可以用于测试应用程序和房间,但需要一台能够处理虚拟机的PC,并在安装应用程序前检查设备的配置。
简述HoloLens模拟器是怎么工作的

动态图片托管平台Gfycat推出GIF格式360度视频

Gfycat宣布推出360度GIF类短视频,允许用户将自己植入至循环视频中。CEO拉巴特表示,3D相机的激增以及来自视频工作室等实际制作者的内容将使其成为与短篇内容互动的标准方式。用户可以通过鼠标或移动手机来查看GIF的不同部分,无需穿戴VR头显等装置。此外,Gfycat还推出了来自派拉蒙影业的360度内容,以帮助推广他们的节目或电影。Gfycat定位为面向创作者的工具,最近表示其月活跃用户达到1.8亿。此举也是行业中许多企业在探索如何为用户提供最优秀的GIF信息体验。拉巴特表示,他们正在创造激励并激发他人创造同样内容的体验,希望将其作为人们2D生活的一个子集。通过不要求人们穿戴VR头显,希望让用户更加友好地消费内容。
动态图片托管平台Gfycat推出GIF格式360度视频

Xprize举办VR+机器人解决方案竞赛,奖金达1000万美元

ANA Avatar XPrize是一项为期四年的竞赛,旨在创建一个跨现实的多功能化身系统,通过结合VR / AR技术和机器人解决方案,将人类操作员与能够执行对人类风险过大任务的机器人融合在一起。该竞赛鼓励创造具有真正变革性的VR设备。作为顾问的VR先驱Jacki Morie表示,使用物理化身,人们可以通过触觉和嗅觉来感知他们的环境,比如用物理化身推动轮椅上的母亲或执行紧急医疗处理。维修人员或外科医生不需要亲自出勤,他们可以绑定物理化身并通过VR设备执行必要的操作。实现这个目标可能需要很长时间,但XPrize正在推动不同学科的人团结合作解决这个挑战。
Xprize举办VR+机器人解决方案竞赛,奖金达1000万美元

〔研发〕现在开始,开发你的第一款ARCore应用程序

随着计算机视觉和硬件的进步,AR和VR将成为我们日常生活的一部分。谷歌已经推出了ARCore 1.2.0,面对这一切,我都必须进行尝试和实验。 对于本教程,我们需要一些关于使用Unity的基本知识。对于没有接受过正式Unity学习的我来说,我的第一个任务是寻找合适的在线教程。在掌握了这个工具后,我就可以向更高一阶前进。至于ARCore相关的教程内容似乎非常稀少,似乎有在线学习网站提供课程,但我不确定他们的水平,另外,你需要C#的基本知识。 同时需要注意的是,下面的信息都是基于我个人的理解、知识和经验。我本人也是在不断的学习之中。如果你愿意分享你的想法与经验,我会很高兴。另外,你同时需要一台支持ARCore的设备,我目前正在使用的是Pixel 2。 ARCore主要分为三个部分:理解环境、运动追踪和照明估计。 我们将开始开发我们的第一款应用程序,但在开始之前,我们先准备相应的工具,即便你没有所需的设备,你同样可以继续阅读本文,只是你无法开始构建和部署应用。 在Unity中创建一个新应用,然后将其命名为ARCoreWorld。完成后,我们需要导入我们下载的Unity文件,如要导入,请依次选择Assets → Import Package → Custom Package,选择文件并单击导入。系统应该显示正在导入的项目,在这里,我们将导入所有内容,然后添加预制件(1) ARCore Device和(2) Environmental Light。所有预制件都可以在收藏夹下找到:左下角Project栏中的All Prefabs。 在这种情况下,应用程序属于可构建状态,但要为安卓构建,我们需要切换平台。要访问构建设置,请依次选择从File → Build Settings。选择Android,然后点击Switch Platform。在完成后,点击Player Settings。在这里我们将做出以下更改:在这里我们将提供一个有效的包名称,将最低API级别设置为Android API 24,并且将该目标设置为higest installed。另外,请禁用多线程渲染。在XR设置中,我们将启用ARCore支持。 此时,作为骨架的代码已经准备就绪,但现在运行应用程序只会显示摄像头的实际视图。 点云是一个容器,其包含一组关于现实世界的3D数据点信息,它们用于推导关于真实世界的信息和框架的组成,以便通过虚拟对象来进行增强。 我们需要创建一个材质,材质允许我们为3D模型提供纹理或颜色信息。创建一个名为PointMaterial的材质,并将着色器类型指定为ARCore→PointCloud,我将大小改为15,颜色则是红色。 之后,我们将需要创建一个可以使用这种材质的对象。为此,我们创建一个立方体,然后将材质应用在立方体上。最后,我们需要添加一个名为Pointcloud Visualizer的组件。当前状态下的应用程序将看起来应该是这样。 我们现在已经准备好了舞台。现在我们要把虚拟对象叠加在现实世界中。这个对象是暗黑破坏神。你可以从指定链接中获取模型。下面我们将模型导入Unity,创建一个名为Diablo的文件夹,并将OBJ文件拖放到这里。导入模型后,你会注意到它只是模型的线框,没有纹理。不用担心,模型的开发者同时提供了所需的纹理,但这是DDS格式,所以我们需要将其转换为TGA。你可以采用任何在线工具执行转换。完成后,将TGA文件拖放到Unity。要将TGA文件用作纹理,我们需要从中创建一个材质。创建一个新材质,并将着色器选择为“Unlit/Texture(不亮/纹理)”,然后使用TGA文件。现在将新材质拖放到Diablo模型中,这时你会看到它从灰度模型改变为我们所设想的模型。为了避免模型过大,我减少了尺寸,你可以选择模型,并将比例因子从1减小到0.15,或者按照你的需求进行缩放。完成后,从Diablo模型创建一个预制件,稍后我们将在渲染器上使用它。 现在我们需要查看绘制虚拟对象的平面。为此,我们可以使用Plane Generator和Plane Visualiser组件。 在以后,我们将会把点云立方体的大小减少至5个单位。 下面我们来一点编程。我们已经有了平面,应用纹理后的模型,接下来我们需要将暗黑破坏神叠加在现实世界之中。 创建一个空白对象,并将其命名为DiabloRenderer。现在添加一个新的C#脚本,更新方法应该看起来像这样: ```c# public GameObject DetectedPlanePrefab; public GameObject DiabloGameObject; void Update() { _UpdateApplicationLifecycle(); // Hide snackbar when currently tracking at least one plane Session.GetTrackables(m_AllPlanes); bool showSearchingUI = true; for (int i = 0; i < m_AllPlanes.Count; i++) { if (m_AllPlanes[i].TrackingState == TrackingState.Tracking) { showSearchingUI = false; break; } } // If the player has not touched the screen, we are done with this update Touch touch; if (Input.touchCount < 1 || (touch = Input.GetTouch(0)).phase != TouchPhase.Began) { return; } // Raycast against the location the player touched to search for planes TrackableHit hit; TrackableHitFlags raycastFilter = TrackableHitFlags.PlaneWithinPolygon | TrackableHitFlags.FeaturePointWithSurfaceNormal; if (Frame.Raycast(touch.position.x, touch.position.y, raycastFilter, out hit)) { // Use hit pose and camera pose to check if hittest is from the // back of the plane, if it is, no need to create the anchor if ((hit.Trackable is DetectedPlane) && Vector3.Dot(FirstPersonCamera.transform.position - hit.Pose.position, hit.Pose.rotation * Vector3.up) < 0) { Debug.Log("Hit at back of the current DetectedPlane"); } else { var diabloGameObj = Instantiate(DiabloGameObject, hit.Pose.position, hit.Pose.rotation); diabloGameObj.transform.Rotate(0, k_ModelRotation, 0, Space.Self); var anchor = hit.Trackable.CreateAnchor(hit.Pose); diabloGameObj.transform.parent = anchor.transform; } } } ``` 首先,我们需要公开三个我们需要链接的变量: 1. FirstPersonCamera:这是可以在ARCore设备上找到的摄像头,后者则允许我们浏览虚拟对象。 2. DetectedPlanePreFab:这将用于渲染虚拟对象的平面检测。 3. DiabloGameObject:这是Diablo模型的预制件。 ```c# if (Input.touchCount < 1 || (touch = Input.GetTouch(0)).phase != TouchPhase.Began) { return; } ``` 该函数将检查我们是否点击了屏幕,如果没有,则无绘制。 ```c# if (Frame.Raycast(touch.position.x, touch.position.y, raycastFilter, out hit)) ``` 一旦我们触碰了屏幕,上面的函数将从屏幕坐标获取输入,然后将其放到虚拟物体叠加在真实世界上的位置。 ```c# var diabloGameObj = Instantiate(DiabloGameObject, hit.Pose.position, hit.Pose.rotation); diabloGameObj.transform.Rotate(0, k_ModelRotation, 0, Space.Self); var anchor = hit.Trackable.CreateAnchor(hit.Pose); diabloGameObj.transform.parent = anchor.transform; ``` 在现实世界中,暗黑破坏神将放置在由hit.Pose.position定义的位置上。接下来,为了将模型附加到现实世界中的某个位置(即使我们试图环绕模型走动),我们需要确保将虚拟对象锚定到创建该模型的Pose。因此,我们创建一个Anchor,并将其分配给游戏对象的父级。 我们已经做出了大量的改动,下面我们看看具体的效果吧: ![](https://configreality-web-asset.oss-cn-shenzhen.aliyuncs.com/crnews/8ec808d0cac4b4481338d51e7ed57951.jpg) 为了方便截图,我们将大小减少至0.05。 我们可以360度地浏览虚拟对象,详细参见下面的视频。 [https://v.qq.com/iframe/player.html?vid=p0655q4lddx&auto=0](https://v.qq.com/iframe/player.html?vid=p0655q4lddx&auto=0) 我们已经通过这个ARCore示例进行了讲解,我将继续努力,并尝试进一步地优化应用。
〔研发〕现在开始,开发你的第一款ARCore应用程序

MRTK是一款面向WMR、HoloLens开发的MR开源工具

2018年05月17日,映维网发布了一篇关于Mixed Reality Toolkit-Unity(MRTK)的文章。MRTK是一个用于在Unity中开发混合现实体验的开源项目,它提供了一些常用的交互和用户界面控件的构造块,可以帮助开发者更轻松地在HoloLens和WMR设备上开发应用程序。 文章选择了一些常用的构造块和交互模式进行介绍,并告诉读者如何在MRTK存储库中找到示例场景,并在项目中使用它们。例如,对于输入模块、摄像头、光标和运动控制器的设置,MRTK可以帮助开发者简化操作。 文章还介绍了其他一些构造块,如可交互对象、边界框与应用栏、两手操作、对象集合、求解器系统、语音输入和空间理解等,并提供了相应的示例场景和技术细节。 最后,文章鼓励读者加入MRTK的社区,提出问题、报告漏洞、贡献代码,为混合现实行业的发展做出贡献。
MRTK是一款面向WMR、HoloLens开发的MR开源工具

Valve新官网重申对VR承诺,并展示罕见VR头显原型

据报道,Valve的新官网设计中强调了他们对硬件和虚拟现实(VR)的重视。Valve明确表示,硬件是未来的核心组成部分,而VR则是他们工作的最前沿。Valve在VR领域发挥了关键的作用,其SteamVR平台已经成为VR内容的领先市场。尽管Valve一度对VR技术的兴趣有所减退,但他们最新改版的官网表明他们对硬件和VR的重点和使命有了新的认识。网站中强调了Valve在硬件方面的成就,并暗示了他们正在研发三款新的VR游戏。Valve的招聘页面也暗示了他们对VR研发的重视。Valve表示愿意推迟或取消项目,以确保推出的产品符合内部质量标准。报道指出,Valve比其他厂商更有机会为用户带来VR领域的杀手级应用。
Valve新官网重申对VR承诺,并展示罕见VR头显原型