如何评价 hololens语音交互 使用定位cursor的交互

AR巨头Magic Leap与Hololens的异同在哪?|界面新闻oJMedia近日,超维星球分享了除AR界两大巨头Hololens、Magic Leap外的重量级公司。
而霸占了AR界两大巨头的他们又有什么异同呢。
Magic Leap 和 Hololens 这类 AR 眼镜设备,都是为了看到现实中不存在的物体和现实世界融合在一起的图像并与其交互。
从技术上讲,可以简单的看成两个部分:
对现实世界的感知 (Perception)
一个头戴式显示器以呈现虚拟的影像 (Display) 。
The World is Your New Desktop
2014 年 11 月 10 日,Magic Leap融资五亿之后发出一则招聘启事,标题是"The World is Your New Desktop&(世界就是你的新桌面)。
Magic Leap 感知研究的高级副总裁 (VP of Perception) Gary Bradski 和 计算视觉的技术负责人 (Lead of Computer Vision) Jean-Yves Bouguet 在Stanford作了演讲。
Gary 是计算机视觉领域的领军人物,在 Intel 和柳树车库 (Willow Garage) 创造并发展了 OpenCV(计算视觉工具库),也是 ROS(机器人操作系统)的创始团队之一,同时也是 Stanford 顾问教授。
Jean-Yves 原来在 Google 负责谷歌街景车(Street View Car)的制造,是计算视觉技术的大牛。
本文相关技术信息皆来源于此次演讲内容。
Hololens 和 Magic Leap的区别:
感知部分其实 Hololens 和 Magic Leap 从技术方向上没有太大的差异,都是空间感知定位技术。
Magic Leap 与 Hololens 最大的不同应该来自显示部分,Magic Leap 是用光纤向视网膜直接投射整个数字光场 (Digital Lightfield)产生所谓的 Cinematic Reality(电影级的现实)。
Hololens 采用一个半透玻璃,从侧面 DLP 投影显示,虚拟物体是总是实的,与市场上 Espon 的眼镜显示器或 Google Glass 方案类似,是个 2 维显示器,视角还不大,40 度左右,沉浸感会打折扣。
Magic Leap 的本质原理:
光线在自由空间中的传播,是可以由 4 维光场唯一表示的。成像平面每个像素中包含到这个像素所有方向的光的信息,对于成像平面来讲方向是二维的,所以光场是 4 维的。
平时成像过程只是对四维光场进行了一个二维积分(每个像素上所有方向的光的信息都叠加到一个像素点上),传统显示器显示这个 2 维的图像,是有另 2 维方向信息损失的。
而 Magic Leap 是向你的视网膜直接投射整个 4 维光场,所以人们通过 Magic Leap 看到的物体和看真实的物体从数学上是没有什么区别的,是没有信息损失的。理论上,使用 Magic Leap 的设备,你是无法区分虚拟物体和现实的物体的。
使用 Magic Leap 的设备,最明显的区别于其他技术的效果是人眼可以直接选择聚焦 (主动选择性聚焦)。
比如我要看近的物体,近的物体就实,远的就虚。注意这不需要任何的人眼跟踪技术,因为投射的光场还原了所有信息,所以使用者直接可以做到人眼看哪实哪,和真实物体一样。
举个例子:在虚拟太阳系视频的 27 秒左右(如这个 gif 图),摄影机失焦了,然后又对上了,这个过程只发生在摄影机里,和 Magic Leap 的设备无关。
换句话说,虚拟物体就在那,怎么看是观察者自己的事。
Magic Leap 管自己的效果叫 Cinematic Reality。
主动选择性聚焦:
众所周知人类的眼睛感知深度主要是靠两只眼睛和被观察物体做三角定位(双目定位, triangulation cue)来感知被观察物体的与观察者的距离的。
但三角定位并不是唯一的人类感知深度的线索,人脑还集成了另一个重要的深度感知线索:
人眼对焦引起的物体锐度(虚实)变化(sharpness or focus cue) 。
但传统的双目虚拟显示技术(如 Oculus Rift 或 Hololens) 中的物体是没有虚实的。
如下图,当你看到远处的城堡的时候,近处的虚拟的猫就应该虚了,但传统显示技术中,猫还是实的,所以你的大脑就会引起错乱,以为猫是很远的很大的一个物体。
但是这和你的双目定位的结果又不一致,经过几百万年进化的大脑程序一会儿以为猫在近处,一会儿以为猫在远处,来来回回你大脑就要烧了,于是你要吐了。
而 Magic Leap 投影了整个光场,所以你可以主动选择性聚焦,这个虚拟的猫就放在了近处,你看它的时候就是实的,你看城堡的时候,它就是虚的,和真实情况一样,所以你不会晕。
虚拟现实和增强现实的不同:
虚拟现实中,使用者是看不到现实世界的,头晕往往是因为人类感知重力和加速度的内耳半规管感受到的运动和视觉看到的运动不匹配导致的。
所以虚拟现实的游戏,往往会有晕车想吐的感觉。
这个问题的解决不是靠单一设备可以搞定的,如果使用者的确坐在原定不动,如果图像在高速移动,什么装置能骗过你的内耳半规管呢?
市场上的方案比如 Omni VR,或者 HTC Vive 这样的带 Tracking 的 VR 系统让你实际行走才解决这个不匹配的问题,但这类系统是受场地限制的。
不过 THE VOID 的应用就很好的利用了 VR 的局限,不一定要跑跳,可以用很小的空间做很大的场景,让你以为你在一个大场景里就好了。
现在大部分虚拟现实的体验或全景电影都会以比较慢得速度移动视角,否则你就吐了。
但是 Magic Leap 是 AR 增强现实,因为本来就看的到现实世界,所以不存在这个内耳半规管感知不匹配的问题。
对于 AR 来讲,主要挑战是在解决眼前投影的物体和现实物体的锐度变化的问题。
所以 Magic Leap 给出的解决方案是很好的解决这个问题的。
但都是理论上的,至于实际工程能力怎么样就靠时间来证明了。
人类希望能凭空看到一个虚拟物体,已经想了几百年了。
各种科幻电影里也出现了很多在空气中的全息影像。
但从物理上很难实现的:
纯空气中没有可以反射或折射光的介质。
显示东西最重要的是介质。
Shot directly through Magic Leap tech,很多文章错误的翻译成「直接看到」或「裸眼全息」,其实视频是相机透过 Magic Leap 的技术拍的。
Magic Leap 想实现的是把整个世界变成你的桌面这样的愿景。
所以与其在世界各个地方造初音未来那样的 3D 全息透明屏做介质或弄个全息胶片,还不如直接从人眼入手,直接在眼前投入整个光场更容易。
而 Magic Leap 采用完全不同的一个方法实现光场显示,它采用光纤投影。
在 Magic Leap 做光纤投影显示 ( Fiber optic projector) 的人是 Brian Schowengerdt,他的导师是来自华盛顿大学的教授 Eric Seibel,致力于做超高分辨率光纤内窥镜 8 年。
简单原理就是光纤束在一个 1mm 直径管道内高速旋转,改变旋转的方向,然后就可以扫描一个较大的范围。
Magic Leap 的创始人比较聪明的地方,是找到这些做高分辨率光纤扫描仪的,由于光的可逆性,倒过来就能做一个高分辨率投影仪。
如图,他们 6 年前的论文,1mm 宽 9mm 长的光纤就能投射几寸大的高清蝴蝶图像。现在的技术估计早就超过那个时候了。
而这样的光纤高分辨率投影仪还不能还原光场,需要在光纤的另一端放上一个微镜头阵列 microlens array,来生成 4 维光场。
光纤束是扫描性的旋转,这个 microlens array 不用做的很密很大,只要显示扫描到的区域就好了。
相当与把大量数据在时间轴上分布开了,和通讯中的分时一样,因为人眼很难分辨 100 帧 上的变化,只要扫描帧率够高,人眼就分辨不出显示器是否旋转显示的。
所以 Magic Leap 的设备可以很小,分辨率可以很高。
增强现实要有感知部分
设备需要知道自己在现实世界的位置(定位),和现实世界的三维结构(地图构建),才能够在显示器中的正确位置摆放上虚拟物体。
三维感知部分并不是什么新东西,计算机视觉或机器人学中的 SLAM(Simultaneo
us Localization And Mapping,即时定位与地图构建)就是做这个的,已经有 30 年的历史了。
设备通过各种传感器(激光雷达,光学摄像头,深度摄像头,惯性传感器)的融合将得出设备自己在三位空间中的精确位置,同时又能将周围的三位空间实时重建。
Magic Leap 的感知技术
图为Gary 教授在 Magic Leap Stanford 招聘会中展示的 Magic Leap 在感知部分的技术架构和技术路线。
可以看到以 Calibration 为中心,展开成了 4 支不同的计算机视觉技术栈。
从图上看,整个 Magic Leap 感知部分的核心步骤是 Calibration(图像或传感器校准),因为像 Magic Leap 或 Hololens 这类主动定位的设备,在设备上有各种用于定位的摄像头和传感器,摄像头的参数和摄像头之间关系参数的校准是开始一切工作的第一步。
这步如果摄像头和传感器参数都不准,后面的定位都是无稽之谈。
计算机视觉技术用传统的校验相当花时间,需要用摄像头拍摄 Chess Board,一遍一遍的收集校验用的数据。
但 Magic Leap 的 Gary,他们发明了一种新的 Calibration 方法,直接用一个形状奇特的结构体做校正器,摄像头看一遍就完成了校正,极为迅速。
有了 Calibration 部分后,开始最重要的三维感知与定位部分(左下角的技术栈),分为 4 步。
Planar Surface Tracking(平面表面跟踪)
大家可以在虚拟太阳系的 Demo 中看到虚拟太阳在桌子上有反光,且这个反光会随着设备佩戴者的移动而改变位置,就像是太阳真的悬在空中发出光源,在桌子表面反射产生的。
这就要求设备实时的知道桌子的表面在哪里,并且算出虚拟太阳与平面的关系,才能将太阳的反光的位置算出来,叠在设备佩戴者眼镜相应的位子上,并且深度信息也是正确的。
难点在平面检测的实时性和给出平面位置的平滑性(否则反光会有跳变)从 Demo 中可以看出 Magic Leap 在这步上完成的很好。
Sparse SLAM(稀疏 SLAM)
Gary 在 Info Session 上展示了他们实时的三维重构与定位算法。
为了算法的实时性,他们先实现了高速的稀疏或半稀疏的三维定位算法。
从效果上看,和目前开源的 LSD 算法差不了太多。
S Vision and IMU(视觉和惯性传感器融合)
导弹一般是用纯惯性传感器做主动定位,但同样的方法不能用于民用级的低精度惯性传感器,二次积分后一定会漂移。
而光靠视觉做主动定位,视觉部分的处理速度不高,且容易被遮档,定位鲁棒性不高。将视觉和惯性传感器融合是最近几年非常流行的做法。
3D Mapping and Dense SLAM(3D 地图重建)
下图展示了 Magic Leap 山景城办公室的 3D 地图重建,仅仅是带着设备走了一圈,就还原了整个办公室的 3D 地图,并且有很精致的贴图。
书架上的书都能重建的不变形。
因为 AR 的交互是全新的领域,为了让人能够顺利的和虚拟世界交互,基于机器视觉的识别和跟踪算法成了重中之重。
全新人机交互体验部分需要大量的技术储备做支持。
Crowdsourcing 众包
用于收集数据,用于之后的机器学习工作,要构建一个合理的反馈学习机制,动态的增量式的收集数据。
Machine Learning &Deep Learning
机器学习与深度学习。需要搭建机器学习算法架构,用于之后的识别算法的生产。
Scenic Object Recognition 场景物体识别
识别场景中的物体,分辨物体的种类,和特征,用于做出更好的交互。
Behavior Recognition 行为识别
识别场景中的人或物的行为,比如跑还是跳,走还是坐,可能用于更加动态的游戏交互。
Gesture Recognition 手势识别
用于交互,其实每个 AR/VR 公司都在做这方面的技术储备。
Object Tracking 物体追踪
这个技术非常重要,比如 Magic Leap 的手捧大象的 Demo,至少你要知道你的手的三维位置信息,实时 Tracking,才能把大象放到正确的位子。
3D Scanning 三维扫描
能够将现实物体,虚拟化。比如你拿起一个艺术品,通过三维扫描,远处的用户就能够在虚拟世界分享把玩同样的物体。
Human Tracking 人体追踪
比如:可以将现实中的每个人物,头上可以加个血条,能力点之类。
Eye Tracking 眼动跟踪
Gary 解释说,虽然 Magic Leap 的呈像不需要眼动跟踪,但因为要计算 4 维光场,Magic Leap 的渲染计算量巨大。
如果做了眼动跟踪后,就可以减少 3D 引擎的物体渲染和场景渲染的压力,是一个优化的绝佳策略。
Emotion Recognition 情感识别
如果 Magic Leap 要做一个 Her 电影中描绘的人工智能操作系统,识别主人得情感,可以做出贴心的情感陪护效果。
Biometrics 生物识别
比如要识别现实场景中的人,在每个人头上显示名字等。
Top 10 Dev Recommendations
在今年的Build2016开发者大会上,微软颁布发表HoloLens开发者版首批版本正式发货,包括头显、头显手提包和一个遥控器,售价3000美元(约合人民币19677元),第二批HoloLens也已在5月份发货。
而上周Unite Europe大会上,IdentityMine的开发者Rene Schulte给出了HoloLens十大开发建议并给予解释。
寻找一位好的3D设计者
对于那些注重视觉效果的软件产品来说,开发者需要严重考虑这条建议。
这也是HoloLens上Spreadsheet和Skype和例子,好的3D设计者才可以完全开发出全息技术的潜能。
抽象的解释并不是最好的选择,一位能够理解全息技术的3D开发者很重要。
把HoloLens当成移动设备
HoloLens是一个强大的科技,但是目前还不能与高端的PC相比。
考虑到HoloLens并不需要任何的缆线,所以可以参考移动设备的应用原则进行设计使用。
利用好Multicore CPU
HoloLens是一个强大的科技,其装载的多核心CPU是其他的设备所不能比拟的。
在渲染和信息处理的时候要好好利用好这个CPU。
提高3D计算能力
HoloLens是需要考虑到现实环境的。
就算你可以发挥出硬件的优势,并且创造出一些惊人的图像,但是如果不能让其融入真正环境,不够逼真的话,那也没有什么用处。
锚定全息图
对于虚拟现实开发者来说,图像飘移曾经是个问题,当头显不能跟上用户的头部移动的时候,就会发生图像飘移的问题。
在增强现实领域,如果视觉上的物件发生飘移则更加致命。
利用好细节层次(LOD)
在计算机图形学中,当3D物品远离观看者的时候,细节层次可以降低其复杂度。
当物体在远处或者快速移动的时候,模型视觉质量的降低通常是不会被人发现的。
这跟虚拟现实和增强现实研发息息相关,因为复杂度降低后的物品对用户的视觉来说并不再重要,可以把所需的处理能力转移到其他地方。
注意Gaze Cursor(光标)
光标是用户视线范围精确的度量,视线的中央。
这跟上面提到的LOD息息相关:当用户的视场中央不再是某件物品的时候,那就无需再渲染那么多的复杂度。
使用动画和转换
这可以让事情变得更加有趣,同时也可以避免让场景过于复杂。
在虚拟现实和增强现实中,一个动画可以比静止的图像更有趣。
重复使用Unity脚本代码与自定义插件
Unity是HoloLens的官方游戏引擎,所以并没有太多的选择。
然而并不意味着开发者们不能自定义自己的开发过程,并且重复使用某些Asset,以避免长时间运行脚本所出现的问题。
避免长开发周期
虚拟现实和增强现实的关键是迭代。
考虑到目前虚拟现实和增强现实仍然是一个年轻的媒介,所以经常会出现工作原则和未知应用的讨论。
在深入开发之前,应该要好好分析自己的项目,不然所开发出来的产品会跟自己的原来的目的不相符,这很浪费时间。
更多专业报道,请
0界面JMedia联盟成员关注VR,AR领域,发布原创采写,产品测评,行业动态。相关文章您至少需输入5个字评论()关于 HoloLens 不可不知的 9 件事
这曾是科学幻想,微软把它带入科学现实。
上周 Windows 10 的发布会上,前 Xbox 孵化项目总经理,被誉为 Kinect 之父的 Alex Kipman 发布了令人震撼 HoloLens,以及被称为 Holograms 的技术,成功引爆了微软发布会的气氛。
HoloLens 是增强现实眼镜,戴上它之后,就好像微软现场所演示的,会在现实的世界里混入虚拟物体或信息,从而进入到一个混合空间中去。它会将人的头部移动虚拟成指针,将手势用作动作开关,而将声音指令作为辅助,帮助切换不同的动作指令。
相比 Google Glass,HoloLens 的工作环境是室内,以提供新的交互方式来帮助人更加高效地工作,或者展示新的娱乐方式。相比 Oculus Rift,HoloLens 不会把人封闭在全新的虚拟世界里,所以并不妨碍人们面对面交流。
HoloLens 以及 Holograms 被视为微软的 Next big thing,许多人给该设备很高的评价。、、、在上手体验文分别评价:
“微软的 HoloLens 完全是魔法来的。2015 年,科幻变成现实。”
“一项真正的创新,是微软着迷于保护 Windows 时所缺乏的。它同样复杂技术手段运用的一个例子,让你体验真正重要的。“
“HoloLens 提供了可靠的,效果夸张的增强现实,令虚拟现实技术怀疑论者目瞪口呆。”
即便如此,关于 HoloLens,你仍然需要了解以下说到的 9 件事。
HoloLens 是个独立的电脑,但关键在深度摄像头和 HPU
HoloLens 具备 CPU、GPU,因此是独立的电脑。不过,真正让它变得犹如“魔法”一般的关键是自带的深度摄像头以及 HPU。
如果你熟悉 Kinect,就会知道它的技术关键是源自被苹果收购的 PrimeSense,后者通过随机的激光散班对空间进行“光编码”(light coding),对整个空间进行标记,以此来检测人体的运动。
HoloLens 的深度摄像头的工作原理也同样如此,在它正式运作之前,需要对整个空间进行编码,然后才会显出虚拟图形。这一点,可以看 HoloLens 的官方视频,演员用眼镜玩 Mindcraft 之前,视频里展现了一个编码化的过程——或许在一个新环境使用 HoloLens,会有一个初始化的过程。
而记者们在实验室里体验 HoloLens 时,被要求不能移动室内的任何物体,也从侧面印证了这一点。
在知乎上,一些熟悉计算机图形的人指出,HoloLens 这种反向 3D 建模,并进行动态定位的方式,即便对于游戏显卡来说都是负担不轻的计算量,专门处理该任务的 HPU 就变得非常重要——它的性能要足以承担这么高的计算量,另外,又不能有明显的发热。否则用户就相当于将一个烤炉戴在头上了。
HoloLens 的 CPU 可能是 Atom,HPU 可能是 Xeon Phi
PC World 的匿名消息源称,HoloLens 的 CPU 采用的是版本为 Cherry Trail 的 Atom 处理器。这是最新一代 Atom 处理器,英特尔本月才刚在 CES 上宣布出片。
基于 Cherry Trail 的 Atom 处理器采用最新 14nm 制程的工艺,功耗控制在 2W 以内。相比上一代,它的 CPU 性能提升了 30% 到 40%,而且功耗不变,此外还提升了 GPU 的性能表现,采用与 Broadwell 相同的 GPU 架构,只是所见了 EU(执行单元)
PC World 由该消息出发进而猜测,HPU 很有可能采用的是英特尔的 Xeon Phi——这是多用于超级电脑里,辅助复杂 3D 建模、数学运算性能强大的协处理器,可提供 1 TeraFLOPS (每秒一兆次浮点运算) 的性能。当然,如果微软真的采用了 Xeon Phi,也肯定是某种简化的版本。
不过,HPU 是用于增强某方面性能协处理器的猜测,并非没有根据。
HoloLens 现在只有工程原型机,戴上后会自动校正
而根据到实验室体验的记者回忆,他们所测试的 HoloLens 是早期工程原型机,和微软在大会上展出的酷酷的设备完全不同,具备一切原型机应该有的粗糙、笨重。
HoloLens 的原型机分为两个部分,一部分是是绕在脖子上的计算单元,它上面甚至拖着一根电源线,另一部分是套在头上的部分,会自动测量瞳孔间的距离而且自动校正,以适应人眼。
关于 HoloLens 的硬件结构,有人画了一张图
该图来自 (暂时找不到作者,找到的请告诉我),点击可放大:
实时对环境进行 3D 建模,对于微软来说似乎不是难事
早在 2011 年,微软研究院启动了名为 ,目标是围绕着移动的物体对周围环境进行实时 3D 建模。——现在来看,这个项目的研究成果(至少是部分的研究成果),已经运用在 HoloLens 上了。
2013 年,微软研究院发布了名为 IllumiRoom 的项目,通过 Kinect 和一部投影仪结合,将电视中的游戏画面扩展到电视外,让人获得更加沉浸式的体验。在这里,Kinect 的作用是迅速捕捉房间内部的几何形状,以配合投影,而且无需任何图像的预处理。
显然,微软在结合 Kinect 进行快速的 3D 建模方面积累了大量的经验。
来自游戏界的两种声音
《GTA5》的公司 Take-Two CEO Strauss Zelnick 认为 HoloLens 激动人心:
在微软的总部,他们演示了这项技术,你得把沉浸式的头戴式设备戴上,然后那些角色开始变得栩栩如生,而且可以与他们交互尽管他们并非真实,那体验,非同凡响。
《神鬼寓言》的创造者 Peter Molyneux 却警告微软不要过度承诺,他看过 Kinect 和 HoloLens 的早期版本。他说:
(HoloLens)让我想起了 Kinect。我想高声说,“在这些东西上,不要过度承诺。”它们的概念视频感觉是如此的流畅,而且看上去所有东西都是可用的。但实际上,就好像我们在 Kinect 所发现的那样,如果你拥有完美的环境,以及完美的距离,它就会表现得非常的好,你就是好像指挥官一样。但如果这些东西并没有完美的结合在一起,这种技术将会收到非常大的挑战。微软在 HoloLens 所展示的技术是令人惊叹的。如果 demo 部分仅仅是告诉别人可以在任何物体的表面看电视,我会非常的敬佩,但他们把 HoloLens 放在过于遥远的将来。你可以将整个房间变化成 Mindcraft 的场景,但却没有告诉别人如何才能做到这一点。
以上两个相互对立的评价正好表明了 HoloLens 在游戏方面也拥有不错的潜力。
HoloLens 也许会改变我们的客厅
HoloLens 发布后, 写了一篇评论《3D 眼镜如何令电视淘汰》,讨论了 HoloLens 这类增强现实眼镜如何改变人的客厅环境。
相比传统的电视,存在于 HoloLens 镜片上的虚拟电视有几大优势:
直接显示 3D 视频;
虚拟电视尺寸可大可小,而且基本不受室内环境限制;
在享受电影的同时,HoloLens 不会阻碍用户与家人之间交流;
用户可以自己选择选择观看点。
HoloLens 的将来
搜狗 CEO ,HoloLens 会取代手机:
Phone 之后,一个技术的热点趋势便是穿戴式设备,这个可以做到比手机更便携,更丰富的交互方式(比如能持续地采集手机采集不到的数据)。有预期到 2020 年,穿戴式设备的技术将会大量成熟并成为手机之外的智能辅助设备。而在这些穿戴式设备中,其他设备只是处于配角来辅助手机,而 Glass 才有超越 手机的交互信息获取优势。
知乎用户,增强现实的未来很可观:
一切视觉的东西都可以产生,一些以前人类想都不敢想的东西都会实现,它将会带来的是十足的颠覆;所有现在现有的物理现实实体都会被替代掉;所有的手机、电脑、电视等“有显示局限性”又有“显示拓展需求”的现有产品都会被颠覆掉;所有的实体广告牌、公交站都会被颠覆掉;所有的装修风格、大楼表面、路面、墙面、家具都会被颠覆掉;物联网会因此突破“没人愿意乱加传感器”的尴尬瓶颈;人工智能会因此获得更加足量的大数据支持;所有的线下服务都将进入增强现实时代,所有的游戏都不再局限于屏幕都会带入真实世界!
Twitter 用户 ,HoloLens 让人有新的装逼方式:
以后会有HoloLens专属的游戏吧,以前晒游戏截图时「不经意」显示高分辩率屏幕,高帧数显卡的晒法又要过时了,以后就是硬碰硬的家居环境,高消费场所,豪车内景….的晒法了。
HoloLens 的疑点
Alex Kipman 在发布会上不停地强调 HoloLens 还处于非常早期的版本,尽管他也承诺 2015 年,眼镜将正式上市。所以,在这一年内,微软需要克服几大难关:
设备的发热要控制在人可以接受的范围之内。如前文所提,普通 3D 游戏都可以令 GPU 的温度上升至 90 度,HPU 这块特别的核心是否可以令 HoloLens 不会发热呢?当然,Wired 上手文中提到,HoloLens 的设计是运用设备的两侧进行散热,尽量避免人的头部感受到热量;
微软没有提 HoloLens 的分辨率,这可是关于增强现实体验的核心指标。作为用户,当然希望分辨率越高越好,最好能够达到 Retina 的程度,但分辨率过高或许会影响到耗电量与发热;
HoloLens 的续航时间有多长?这也是微软发布会上没有提的。尽管不可能要求 HoloLens 续航高达 24 个小时,但也希望至少能够使用 5 个小时,也就是至少能够支撑半天使用,而且充电速度可以再快一点,1 小时内充满;
微软没有透露 HoloLens 的显示方式,由于 Oculus Rift 实际体验当中存在不小的问题,所以人眼长时间聚焦在距离较近的屏幕上,是否会令人眼感到不舒服?
有好的产品或者项目希望我们报道,猛戳这里
3290文章总数
全新爱范儿 App 现已适配
Android 及 iPhone
使用微信扫码关注爱范儿微信公众号
关注爱范儿微信号,连接热爱,关注这个时代最好的产品。
想让你的手机好用到哭?关注这个号就够了。
关注玩物志微信号,就是让你乱花钱。请问如何使用HoloToolkit-Unity-Master进行物体的旋转与缩放_hololens吧_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0可签7级以上的吧50个
本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:6,216贴子:
请问如何使用HoloToolkit-Unity-Master进行物体的旋转与缩放
求大神解答
贴吧热议榜
使用签名档&&
保存至快速回贴为你推送和解读最前沿、最有料的科技创投资讯
36Kr股权投资
汇集行业内最优质创业项目的股权投资平台
聚集15家顶级投资机构的专业互联网融资平台
聚集全球最优秀的创业者,项目融资率接近97%,领跑行业扫一扫,访问微社区
后使用快捷导航没有帐号?
签到成功!您今天第{todayrank}个签到,签到排名竞争激烈,记得每天都来签到哦!已连续签到:{constant}天,累计签到:{days}天
使用Unity开发HoloLens应用
经历数个月的期待与等待,公司预订的HoloLens开发者版本套件终于到了。作为市面上第一款发售的AR/MR设备,HoloLens开发者版本具有很多独特的黑科技。今天,我们就来了解HoloLens的开发特性(参见图1应用场景)。图1 Hololens应用场景空间映射借助微软特殊定制的全息处理单元(HPU),HoloLens实现了对周边环境的快速扫描和空间匹配。这保证了HoloLens能够准确地在真实世界表面放置或展现全息图形内容,确保了核心的AR体验。场景匹配HoloLens设备能存储并识别环境信息,恢复和保持不同场景中的全息图像对象。当你离开当前房间再回来时,会发现原有放置的全息图像均会在正确的位置出现。自然交互HoloLens主要交互方式为凝视(Gaze)、语音(Voice Command)和手势(Gesture),这构成了HoloLens的基本输入要素。同时传统的键盘鼠标等设备也被支持,自然的交互方式更贴近人类习惯,提高了交互效率。通用应用HoloLens平台的操作系统为Windows Holograpic,同样基于Windows 10定制。所以Windows 10 UWP通用应用程序可以顺利地在HoloLens上运行。这不仅降低了研发和迁移成本,也让开发效率大幅提升。当然,说了很多HoloLens的特性和优点后,开发者版本也存在一些亟待解决的,比如视野较窄、凝视体验不佳、抗光线干扰弱和重量续航等。但瑕不掩瑜,HoloLens带来了真正的混合现实体验,拥有着强烈的冲击感,未来将大有作为。开发一个HoloLens应用在了解HoloLens设备后,我们来试着开发一个简单的HoloLens应用,当然你也可以开发一个传统的UWP应用。这里我们则采用Unity引擎来构建应用,使用Unity开发是官方推荐的做法。开始之前确保正确配置了开发环境,需安装以下工具和SDK:Visual Studio 2015 Update 1及以上版本;Windows 10 SDK 10586及以上版本;HoloLens模拟器,如图2;Unity HoloLens技术预览版。以上工具和SDK均可在微软官方网址获取,详细教程可以访问:。图2 HoloLens模拟器集成HoloToolkit-Unity项目在创建了标准Unity项目之后,我们需要集成微软官方提供的HoloToolkit-Unity项目。HoloToolkit-Unity是微软官方的开源项目,用于帮助开发者快速开发HoloLens应用,能够快速为项目集成基本输入、空间映射和场景匹配等特性。以下是此项目的结构和内容分析,如图3。Input目录GazeManager.cs用于快速集成凝视射线特性;GestureManager.cs用于快速集成手势识别特性;KeywordManager.cs用于快速集成语音命令特性;CursorManager.cs用于快速集成可视化凝视组件。Sharing目录Sharing Prefab组件用于快速集成场景共享特性。SpatialMapping目录SurfacePlane Prefab组件用于描述和渲染真实世界表面;SpatialMapping Prefab组件用于快速集成空间映射特性;RemoteMapping Prefab组件用于快速集成远程空间映射信息导入特性;SpatialSound目录UAudioManager.cs用于快速集成空间声音特性。Utilities目录Billboard.cs用于实现跟随用户视线特性;Tagalong.cs用于实现跟随用户移动特性;Main Camera Prefab组件用于快速集成HoloLens标准主摄像机。图3 HoloToolkit-Unity项目结构构建场景新建空白场景后,我们需要删除原有的Main Camera对象,同时从HoloToolkit目录中拖拽一个Main Camera Prefab组件到场景中,如图4,这样就集成了满足HoloLens需求的基本主摄像机。对于HoloLens,将主摄像机渲染背景设为纯色,颜色设为RGBA(0,0,0,0)。因为任何纯黑的颜色将会被HoloLens渲染为透明,以达到不遮挡现实世界的目的。此外,HoloLens建议摄像机视角近距离为0.85,这个距离最符合真实人眼的体验。同时主摄像机位置必须重置为世界零点,即xyz(0,0,0),任何全息图像将会以此为原点在周边世界中绘制出来。图4 设置主摄像头然后点击“Create Empty”创建一个空游戏对象,并将其命名为Input,如图5。为Input对象添加核心脚本组件,分别为GazeManager.cs、GestureManager.cs、HandsManager.cs和KeywordManager.cs。这样就集成了以上命令三大核心特性,对于凝视射线、手势识别和语音命令功能,均建议使用单例来进行管理,这样可以避免功能混乱。同时为凝视设置可视化的指针,可以提高用户的交互体验和效率。图5 集成输入组件接下来集成可视化凝视组件,从HoloToolkit目录下拖拽CursorWithFeedback Prefab组件到场景中,如图6。这样当凝视在全息对象时,其表面会出现可视化凝视组件。当用户手势被识别到时,会出现一个蓝色的手掌图像,能够贴心地告诉用户可以操作了。图6 集成凝视组件创建一个Cube对象和一个新的C#脚本,命名为HoloTest.cs。Cube作为我们的全息图像主体,将它的Transform参数设为如图7所示。这样Cube的位置方便我们近距离观察其实际变化情况,你也可以根据自己偏好来放置它。图7 设置Cube的Transform参数HoloTest.cs脚本的功能为随机更换对象的材质颜色,遵循GestureManager.cs中预设的OnSelect消息名称,HoloTest.cs脚本中将会在OnSelect方法中实现此功能代码如下:public void OnSelect()
gameObject.GetComponent&MeshRenderer&().material.color = new Color(Random.Range(0, 255) / 255f, Random.Range(0, 255) / 255f, Random.Range(0, 255) / 255f);
}进入Input组件检视选项卡,为KeywordManager.cs组件配置语音命令。图8语音命令触发时将会执行相应的组件行为。本例中,当我说出“test”时,机会即会Cube的OnSelect方法,来随机改变Cube颜色。图8 设定语音关键词行为编译项目为了满足HoloLens的需求,我们需要在Player Settings里面开启Virtual Reality Support,并在下拉列表中选中Windows Holographic,如图9。只有这样HoloLens才会将此应用渲染为3D应用,这一点十分关键。图9 添加HoloLens支持同时从工具栏Edit→Project Settings→Quality选项卡中,将UWP平台默认画质设为Fastest,如图10。这是为了降低性能开销,官方推荐帧率为60fps。图10 设定默认画质如图11,Build Settings视图中选择目标平台为Windows Store,SDK为Universal 10,点击Build按钮开始编译UWP项目。图11 编译Unity项目部署调试应用使用Visual Studio打开编译后的UWP项目,在Debug选项上设置如图12所示。图12 设置Debug选项连接HoloLens到PC,完成Build和Deploy后,我们在HoloLens中打开此应用。实际效果如图13所示。当我使用手势点击Cube时,它会随机变化颜色;而当我说出语音命令“test”时,Cube仍会正常的变换颜色,这完全符合我们的预期。图13 实际效果图HoloLens开发总结使用Unity引擎开发HoloLens应用是非常容易的事情,大部分流程与开发UWP项目并无不同。但仍有不少需要注意的雷区和特殊要求,以下就是部分要注意的部分:Main Camera一定要按照官方要求配置,背景纯色且RGBA值为(0,0,0,0),这样才能避免遮挡现实内容;Gaze凝视特性需要我们使用Raycast来实现,注意处理射线未命中目标情形,默认凝视最远距离为15米,若是未击中物体,使用时可能会出现空引用异常;手势识别、拍照和语音命令等均需使用Windows特有API,空间映射和场景匹配需要使用HoloLens特有API;其他很多细节上的体验,例如可视化凝视组件、目标区域可视化指引组件等,使用它们来给用户提示,可以帮助用户理解应用操作方法,提高使用体验。最后,AR/MR技术独特的交互体验与开发特性,代表了未来自然交互的发展方向,相较于目前成熟的VR技术,它们具有更光明的发展前景和更广阔的用途。无论是微软还是Magic Leap,它们无疑会是未来市场的引领者,而目前也是我们学习的黄金阶段,能够迎头赶上这波浪潮,对于相关从业者具有重要的意义。
作者的其他最新博客
评论 ( 个评论)}

我要回帖

更多关于 hololens 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信