vr现在沉浸式vr感怎么样

苹果园为iOS用户提供和下载,最新的、、、等,分享最权威的资讯、、及解决办法,拥有最火爆的,苹果园一家专注解决iOS所求的网站。进行中的任务
VR:沉浸感是什么?沉浸感的理论解释及应用领域
原标题:VR:沉浸感是什么?沉浸感的理论解释及应用领域
招募: 光学镜头设计、结构设计;市场销售人员
有意者联络罗生:
沉浸感就是让人专注在当前的目标情境下感到愉悦和满足,而忘记真实世界的情境。沉浸感往往包括人的感官体验和人的认知体验,是强烈的正负情绪交替的过程。
沉浸感就是让人专注在当前的目标情境下感到愉悦和满足,而忘记真实世界的情境。它是参与,融入,代入感的程度,是强烈的正负情绪交替的过程。
早期沉浸理论指出,挑战与技巧是影响沉浸的主要因素。若挑战太高,使用者对环境会缺少控制能力,而产生焦虑或挫折感;反之会觉得无聊而失去兴趣。沉浸状态主要发生在两者平衡的情况下。两者均低时,使用者的心态为冷漠。
后续的研究则开始着重沉浸经验带来的自我肯定,促使使用者的后续学习行为。
随计算机科技的发展,沉浸理论延伸至人机互动上的讨论,Webster等人视这种互动具游戏和探索的特质。Ghani和Deshpande(1994)以人机互动对工作的影响进行研究,提出两个沉浸的主要特征:心理享受和完全专注。
之后Novak等人研究发现,网络使用行为中,信息寻求最容易进入沉浸,其次为阅读与书写。不同的网络活动型式,如在线游戏、在线购物、E-mail等,也会带来沉浸经验的差异。
沉浸体验的发生伴随着九个因素:每一步有明确的目标;对行动有迅速的反馈;挑战和技巧之间的平衡;行动和意识相融合;摒除杂念;不必担心失败;自我意识消失;时间感歪曲;行动具有自身的目的。
心流定义为一种将个人精神力完全投注在某种活动上的感觉,也就是废寝忘食的状态。心流产生的同时会有高度兴奋及充实感。
各种不同的挑战感和技能水平高低分出了八个区,分别是:心流、控制、放松、无聊、冷漠、忧虑、焦虑和激励。
空间临场理论
理论认为,空间临场感的发生要经过三个步骤:
第一,玩家在头脑中形成游戏展示给他们的世界或空间的影象。
第二,玩家开始以这种基于媒体的空间(游戏世界)作为自己“在”哪里的参考点。
第三,玩家可以获益!
而促进沉浸感的游戏特性大概可以分成两类:一类负责创造游戏环境的丰富的心理模型,另一类负责创造游戏环境中的事物之间的一致性。
丰富性是指感觉信息的渠道多;感觉信息的完整;对认知要求高的环境;生动的和有趣的叙述、情节或故事。
一致性是指游戏世界中没有不协调的视觉线索;游戏世界中的行为是始终如一的;游戏世界的表现是完整的;与游戏世界的物品产生互动作用。
玩家本身对其是否沉浸于游戏也是有一定影响的。有些人的空间能力就是更强,可以更快地形成更加生动的心理模型。有时候玩家会产生主动的作用。有些玩家就是想相信幻觉,把自己的偏见导向接受“我就在那里”的假设。用户渴望在信以为真的世界中活动,使之与自己的生活保持平行关系,根据他们自己的设计影响变化。比如喜欢角色扮演的玩家。
游戏领域。
游戏中玩家的情绪体验与游戏营收能力呈一种正相关的联系。一款好的游戏应该能唤起玩家强烈的情绪波动。而影响玩家情绪的有以下几点因素:
一、故事性。当玩家在游戏中与有趣的故事情节产生交互,都会产生不错的情绪。
二、挑战性。难度太高有引发挫折感,难度太低则会无趣。
三、画面性。绚丽精致的画面能让玩家会产生愉悦的情绪。
娱乐领域。
电影院利用幕布布置,立体声效等技术营造出身临其境的效果,使得观众全身心沉浸在影院互动系统中。
教育领域。
运用“沉浸理论”激发学生的学习兴趣,提高学习动机,进而提高教学水平与成效。从理论与实践的角度,探讨学习与沉浸体验的关系,寻求利用沉浸理论提高教学的新途径。
沉浸体验是在人们从事一项任务的时候产生的。任务型教学是通过学习者在课堂上完成某项任务进行教学。二者方式相似,便于结合。因此,通过任务型教学来引发学生的沉浸体验应是一种可行的、便于操作的模式。
来源:http://www.yxdown.com/vrnews/292840.html
1、深圳普力视拓科技有限公司
各类投影光机及镜头解决方案,孙总:listo_
2、上海广神电子有限公司
热成像shutter,美国FLIR供应商,吴总:
3、深圳翌信信息科技有限公司
提供微光模组及产品解决方案,王总:
QQ专业群!非诚勿扰!
更多交流,敬请期待
责任编辑:
[编辑:叶子猪小秘书]
本文由叶子猪游戏新闻中心首发,仅代表发表厂商及作者观点,不代表叶子猪本身观点!解密 VR 沉浸感,VR 沉浸感到底怎么来的?-ZAKER新闻
视场角的大小决定了光学仪器的视野范围,视场角越大,视野就越大,光学倍率就越小。通俗地说,目标物体超过这个角就不会被收在镜头里。对 VR 产品而言,视场角 ( FOV ) 是一个非常重要的因素,它对用户 VR 体验的沉浸感有非常大影响。那么其原理是什么呢 ?VR 透镜又是如何设计的呢 ? 不妨看看下面这篇文章。浅析 VR 透镜与视场角相信看过 VR 发布会,或者 VR 产品的朋友,都会看到厂商的 ppt 或者广告,会嘶声力竭的喊,自己的 VR 眼镜的视场角是多少,是多么的好 ! 比如下图是某厂商的广告截图:
那么,厂商所得意的 100 度视场角,到底是几个意思 ? 请容晓峰为您细细说来。什么是视场角视场角,英文 Field Of View,简称 FOV。根据两种应用情况,视场角有 2 种定义。在光学仪器中,以光学仪器的镜头为顶点,以被测目标的物象可通过镜头的最大范围的两条边缘构成的夹角,称为视场角。如下图。2. 在显示系统中 ( 比如电视 ) ,视场角就是显示器边缘与观察点 ( 眼睛 ) 连线的夹角。例如下图中,COD 角就是水平视场角,AOC 就是垂直视场角。
对 VR 来说,其定义应属于第一种。 ( 虽然 VR 既有显示屏也有镜片 ) 也就是说,厂商宣布他的产品的视场角,指的是该 VR 眼镜的某一个镜片的视场角 ! 换言之,视场角就是镜片的一个参数而已。 举个例子。比如下图,眼睛通过 VR 透镜去看一个人物,如果这个人物很高的话,那是看不全的,我们所能看到的最高和最低处的光线通过透镜折射进入眼睛,2 个折射线的夹角,就是 FOV。 ( 即眼睛前的 2 根红线的夹角 )
VR 视场角 FOV 的大小测量如上文所说,如果一个 VR 镜片做好了,那么其 FOV 就定了。那么,VR 镜片的工程师,在实际工作中如何测量 FOV 呢 ? 在入瞳处用一束平行光照向透镜,测量显示屏上的光斑高度 ( 屏放在焦点处 ) ,及光束与中心轴的角度,既测量出 角度与像高关系 ( 即畸变 ) 也可以测出最大视场,平行光可以是由平行光管产生,也可以是激光束。下图中,在入瞳处 3 个点射出 3 根平行光:如果是水平向右,则 3 根都聚焦到中心轴 ; 慢慢向右上方射出,则 3 根都聚焦到屏幕上且焦点慢慢上移 ; 慢慢上移,直到屏幕看不到焦点了,此时的平行光与中心轴的夹角 α,就是 FOV 的一半。即 FOV = 2 * α
VR 透镜的原理首先,先闲聊一下 VR 眼镜的结构:透镜 + 屏幕。如果屏幕是直接嵌入在头盔的,并且不需要连接 PC ( 此时头盔必然装有高性能的芯片 + 软件系统来运行 VR 内容,比如游戏 ) ,可称为 VR 一体机。比如大朋 VR 一体机。如果屏幕直接嵌入头盔,但是要连接 PC,VR 内容 ( 比如游戏 ) 的运行都在 PC,可称为 VR 头盔 ( 分体机 ) 。比如 Oculus Rift, Microsoft Holo, HTC VIVE。如果只有眼镜,没有屏幕,而是外接各种型号的手机作为屏幕,那可称为 VR 镜架。比如三星 Gear VR,暴风魔镜。 下图是眼睛 / 屏幕 / 透镜的关系图 , 由图可知视场角是 α *2。
透镜其实就是放大镜,为何要放大 ? 因为人有明视距离,太近的东西看不清楚。一般大于 25cm 的距离才能看清楚。想必你把手机直接放在你眼前 5cm,你是看不清屏幕的东西吧。有人就要问了,那可以把手机放到 25cm 外呀 ? 其实,那更不行了,25cm,意味着这个镜架的长度至少 25cm 了,这么大,戴到头上如何受得了 ! 既然是放大镜,那根据放大镜原理,屏幕必须放在焦距以内,才能放大。放大以后,人眼看到的虚像位置,符合下面的公式:
根据公式,假设焦距 f=7cm, 物距 ( 屏幕到透镜中心距离 ) u=6cm, 那么虚像位置就是 42cm。满足人的明视距离大于 25cm 的要求。现在 VR 设计,一般透镜在眼前 1-1.5cm 处,屏幕距透镜 3-6cm,虚像成像在眼前 25cm-50cm 左右。对于近视,像距需要变短,而物距 ( 屏幕与透镜距离 ) 一般做好了就无法改变,所以可以增大焦距 f,即通过换透镜来改善。此外,在设计 VR 时,在物距,焦距等几个参数的调整中,基本都是几毫米的微调,需要权衡虚像距离过大 ( 放大倍数大 ) 而带来的像素颗粒感问题和虚像距离过近而带来的不够明视距离、视野较小等问题。VR 透镜的设计好的 VR 眼镜设计,就是视场的边缘,接近于屏幕边框。这样沉浸感最好。如下图所示。
如果 FOV 偏小,就会导致浪费像素。
FOV 偏大,就更糟糕,可以看到屏幕边缘。那就毫无沉浸感可言了。
前文讨论的 VR 镜片,其实是一个理想镜片。如下图所示,从上往下看,是一个圆形。
但实际制作时,会做一定的切割。例如从上往下看时,会做如下的切割。
下图就是某厂商的某个 VR 镜片的各方向视图。 ( 分别是主视图,俯视图,左视图 )
由于切割大小不同,这意味着,下图中 ,w, h, m 方向的 FOV 是会有所差异的。比如垂直的 h 方向 FOV 是 90 度,水平的 w 方向 FOV 是 80 度。
实际观影的效果可能如下图所示。
抽取算法与 FOV 的关系首先科普一下全景视频在 VR 中是如何使用的。通常 ( 且不说各家公司做的各种优化方案 ) ,全景视频的每一帧图像,宽高都是 2:1,因为全景的话,水平环视一周 360 度,上下看是 180 度。这和地球的经纬度是一样的。
这全景图像如何使用呢 ? 对程序来说,其实就是把图像作为纹理,贴到一个球面模型上。就像地球仪,上面的图拉伸开了,就是一张全景图。人站在球心,那么,往任何方向看,都是有东西的。这就是虚拟现实的意义:戴上眼镜后,往哪里看,都有东西,感觉就在一个虚拟的环境中。 抽取算法,就是在你头部转动时,决定抽球面模型的哪一部分内容,放到屏幕让你看 ! 如下图所示:
比如,你往正前方看,能看到图中红色区域,那么,软件就要把这部分内容抽出来,放到屏幕。当你转动头部,假设慢慢往上抬头,那么,红色区域也要往上移,意味着要抽取新的内容。一般,人眼对大约 20ms 以内的延迟图像发觉不了,所以只要软件能在获得头部转动的新位置后,20ms 内抽出新的内容给你看,那你就不会头晕,沉浸感就有了 ! ( 早期 VR 兴起,延迟是一个关键问题,也是各家厂商含泪宣传的卖点,不过现在已经有各种方法能把延迟时间缩小到 20ms 内了 ) 虽然头部转动,位置会不停的变,但是人眼看的范围总是变不了的,不管往哪里转,最多也就看到一部分内容。上图的 α 与 β 就是水平与垂直 FOV,假设都是 90 度。那这个 FOV 就决定了人眼能看到的范围。假设现在厂商镜片做好了,FOV 参数是 90 度,那么,程序做抽取时,除了要根据头部位置,决定抽哪里的内容,还要根据 FOV 参数,决定抽多少内容 !总结说了这么多,做个小总结吧。VR 眼镜的结构:透镜 + 屏幕。透镜其实就是放大镜,因为屏幕距离眼睛很近,小于 25cm 明视距离,所以需要透镜。视场角就是透镜的一个参数,简单的说,它指的就是,通过透镜能看到的视野范围。VR 的透镜设计和屏幕选择,是一个相互影响的过程。一般是先选好屏幕的尺寸大小,然后设计透镜 ( 特别是设计其参数 FOV,焦距等 ) ,使其既能让视距大于 25cm,又能让屏幕的边界刚好进入视场。从上文可以看到,在现有的技术条件下,FOV 不是越大越好,它需要在沉浸感和清晰度之间做出妥协。这里 87 君要特别提醒大家,购买移动 VR 设备时,视场角的选择一定要与自己的手机相配。一般来将,5.0-5.7 寸手机可选择 90 ° 视场角的 VR 设备 ;5.0 寸以下手机选择 80 ° 左右视场角的设备 ;5.7 英寸以上,手机分辨率为 2K 的可以选择视场角 90 ° 以上的设备。
相关标签:
原网页已经由 ZAKER 转码排版
驱动之家5小时前
TechWeb19小时前
驱动之家17小时前
凤凰科技昨天
钛媒体3小时前
钛媒体5小时前
驱动之家34分钟前
驱动之家5小时前
IT之家17小时前
TechWeb19小时前
凤凰科技22小时前
驱动之家2小时前
雷锋网昨天
驱动之家19小时前
超能网55分钟前深入剖析VR沉浸感,VR沉浸感是如何来的?深入剖析VR沉浸感,VR沉浸感是如何来的?永生联众VRAR百家号在VR中创建沉浸式体验,声音也是非常重要的一环。玩家和观众在虚拟的环境当中听到一个声音来自于虚拟世界当中的位置,会变的非常重要,原因就是我们在沉浸式体验当中没有了屏幕的概念。如果说是叙事的环节的话,也没有了镜头的概念,我们要推动故事情节的发展需要引导玩家,声音是非常优雅而简便的,也是实用的选择。音效如何变的空间化呢?首先要了解人类是如何定位空间中的声音的。这个过程可以简单地分为两个方面,人类是如何定位声音从哪个方向过来,离我们有多远。定位方向无非要知道声音是来自于前后左右还有多少角的方向。最主要的就是靠时间差ITD和强度差来判断左右,这两个参数的判定优先级是跟人头的尺寸有关的。这里有一对经验值,800赫兹以下的是靠时间差来判断的,高于800赫兹是靠强度差,中间是靠他它们两个之间的是共同判定的。有时候在实际生活当中也会用侧耳倾听的方式把判断前后的问题改为判断左右的问题,值得一提的是人类对于前方的声音的精确度可以做到1度,对于侧边的声音也可以做到15,人的听觉系统可以分辨10毫秒以内的时间差,所以我们要在开发过程中能够达到相应的精度才能让体验者不会感到声音是虚假的。那我们来看看ITD(时间差)和ILD(强度差)的影响权重是如何和人的头部尺寸相关的,之前我们提到过800Hz以下我们就只能看时间差来分辨声音的左右了,以图中200Hz的声音为例声音的半波长大约是85cm远大于我们的头的尺寸所以在这个情况下我们根本无法挡住声音,所以声音的强度差显然靠不住了,而在高于1500Hz的6000Hz声音的情况下,我们会完全的挡住声音,所以我们无法靠时间差,只能依赖于强度差,而对于前/后和仰角就让我们交给HRTF吧。接下来让我们来看看人类是如果定位空间中声音的距离的。对于熟悉的声音,及我们知道何为大声和为小声的声音,当然是声音越大离我们越近,对于表示直接声音和经过一次反射的声音到达耳朵的延迟的Initial Time Delay来说,延迟当然是越大,说明声音里我们越近,对于我们听到直接声音和反射声音的比例来说,当然是直接声音的比例约高,说明音源离我们越近。对于听觉的运动视差来说,越近的声音运动的会越快,想象我们站在铁路边一辆火车以恒定的速度从远处开来。我们听到火车的声音由远及近时一开始声音移动的很慢可到了近处后,火车呼啸而过,声音移动的很快。高频声音在传播的过程中会比低频声音衰减的更快。所以高频部分衰减的越少说明约近。对于7.5和5.1的环绕立体声来说,依靠听者的位置和朝向的假设。这种情况下在家庭影院上是可以的,我们可以假设定者的地位和朝向的位置。我们知道人类是如何定位3D空间中的声源,3D音源的空间化就是逆向的过程。简单来说就是我们处理我们的声音,让它听起来像是发生在空间当中的那个位置。这样做自然要从两方面来处理,一方面是总方向上,另一方面是从距离上。方向上主要是可以靠HRTF加上头部跟踪里处理,具体就是利用刚才讨论的那些关于声音距离方面的特征属性来逐一地处理。首先我们要明白什么是HRTF,但是在说明之间不得不先解释一下什么是HRIR,头部关联的脉冲响应。HRIR是一个与音源和耳朵位置相关的脉冲响应,对任意音源做某一特定HRIR的卷积就是把该声音处理成像这个脉冲响应关联的耳朵和声音的位置,音源在这个HRIR相关联位置发出声音的过程。我们现在已经知道什么是HRIR了,它可以把我们的声音处理成像那个位置发出的声音,在这个过程中可以做卷积。傅立叶变换可以把卷积变成乘法,乘法变成卷积,这里我们显然希望使用乘法来代替卷积运算从而减小性能的开销。所以我们需要HRTF。那么我们在来给HRTF一个更近一步的解释。HRTF是因为散射导致的基于音源位置的选择性的加强和衰减某些特定频率的现象。耳朵在这个过程中扮演了一个声音探针的角色。这个效果可以在数十分贝的数量级上影响某些特定频率声音的大小。这个图可以让我们对HRTF有一个更直观的认识,它横轴是频率,大概能到40000赫兹的范围,纵轴的加强的分贝数。它对于一个特定的角度、特定的距离对于特定频率的声音加强和衰减,这个图是前方仰角15度的一个HRTF。绿色的线是左耳,蓝色的线是右耳。值得一提的是几乎每个人的HRTF都因为不同的头部大小和不尽相同的身材,独特的耳部特征,所以每个人的头部模型都是一个独一无二的个人属性。HRTF是怎么来的,是在一个完全不会发生反射的房间用这样的一套设备来测量的。我这里列出来wiki上能搜到的一些数据,让我们的开发者可以不用自己去模拟HRTF开发方式,可以直接做声音的处理软件。这张图上可以大致地想象出来,这个数据是什么样的,它应该是以听着为中心的球面数据,我们是靠声音在空间中的两角和方位角去索引我们对的HRTF,就像我们上一张看的图一样正前方15度是有一个专门的图。现在让我们来看看HRTF是怎么使用的。假设空间中的一个特定位置的扩音器发出的声音为X1,X1经过扩音器的transfer function传播到听者所在的位置,这个时候要经过有人体特征构成的天然滤波器,就是HRTF到鼓膜被我们听到。假设这个时候在鼓膜处有一个话筒,可以把我们听到的声音给记下来,记录下来为Y1.那么当我们想在耳机里直接模拟出这个过程时,我们就需要有一个transferfunction涵盖LF/H的整个过程,是的最后同样在鼓膜里听到的Y2和之前的Y1完全一样。头显在这当中扮演了什么角色呢?在L和F的过程当中,头显追踪到头部,声源在虚拟场景的更新都要应用到相应的LF工具里面去,这个时候我们才能做声音的处理。说完了方向之后看一看刚才说的距离,距离就比较好处理了,每一条都有符合认知的的感觉。声音从远到近,会因为距离而衰减。直接声音和初次反射声音的时间差,从远到近,会由小到大。直接声音和反射声音的比例,从远到近,直接的声音的比例也会逐渐增高。声音的移动上来说,正如之前讲到火车的例子,从远到近,音源的移动速度也会由慢到快。这在虚拟现实中是非常好的获得的一点,虚拟场景本身自己对声源的控制我们天生得到这样子的优势,我们把声源绑在虚拟的场景当中的物体上,天然得到了这样子的优势。高频声音的衰减来说,我们需要在考虑声音基于距离衰减的基础上,让高频的声音衰减的更快。我们现在已经了解了如何在耳机里模拟一个空间中特定位置的声音。那么下面让我们的看看这个过程如何在unity里快速的实现。Unity为我们的开发者提供了一个空间化音效的SDK,要讨论这个SDK我们不得不提到Unity里的Native Audio Plugin SDK,因为它是我们空间化音效SDK的基础。Unity里让开发者创建Audio effect,任何一个Audio Effect都可以用这个SDK完成,它可以像一个graph一样去构建复杂的音效。像图中的例子,我们想把两个音源的做一个混合的效果。我们可以创建音效,指明它在音源里面有输出,在callback函数里面最关键的就是process call back这个函数,让我们的开发者可以在这里对音源的每一个channel的每一个sample做处理。好,在Native Audio Plugin SDK的基础上让我们来认识一下空间化音效的SDK,以及如何在这个SDK的框架下实现我们的空间化音效。相对Native Audio Plugin SDK,Spatialization AudioSDK唯一的不同是在整个声音特效的graph里,在这里设计空间化音效,对场景当中每一个功能的音效都会创建唯一的音效instance在graph里与之相连。这个时候只要空间化音效打开,不管你场景稻种的Audio Graph多么复杂,它都会在里面加入唯一过滤的声音。好,接下来让我进入具体的实现环节。首先是Capturing HRTF,当然我们也可以选择不用自己Capture,而使用一些现成的数据。在unity提供的sample里,我们使用的是MIT EDU提供的数据,它的数据结构是这样的,有14个仰角,对于每一个仰角有一定数量的方位角,比如说对水平向下40度的角度,提供了16个Sample点,每个点之间的差是4.63,这样的一组数据是以人为圆心的不封闭的圆,因为是从我们头顶90度一直到水平向前40度就结束的一组数据,刚才采集HRTF的半径是1.4M。然后我们来讨论一下在SDK里Apply HRTF的过程。在刚才讨论最主要的ProcessCallback里,根据方位角和仰角,我们找到对应的HRTF,处理我们音源里的sample data,它的信号是一个时域空间的信号,声音是跟时间有关的数据,我们在时域空间需要对它进行做卷积,卷积的运算量是非常大的。对于这种数据我们就要用这里提供的Unity Audio SDK的傅立叶变换,将离散空间的数字化锦灏转化到频域空间,这样我们就可以用复数乘法代替卷积运算。这样可以减少性能的开销。在处理完对特定频率的增强和衰减以后。我们再把audio data的转回时域空间,写入这个audio effect的output buffer,这样的节点可以传给下面的节点去做操作。但是在这个过程中的计算量仍然是比较大的,且像这样的没有太多逻辑关系的纯计算任务也比较适合在GPU上完成。所以现在的一些GPU厂商也相继为这样的需求提供GPU的硬件加速支持。比如AMD提供的TrueAudioNextSDK,它提供了一套与Unity Audio SDK里很相似的API来做傅立叶变换和复数乘法,甚至也有卷积运算的函数。其实它API的使用方式和Unity里面的API使用方式非常相似,但是它的内部是用GPU加速的,所以这样可以让我们在声音计算的过程中也享受到GPU带来的运算性能。然后在Head Tracking的部分我们需要将头显的方位数据apply到场景当中带有audio listener这个组件的camera上,使得我们在process call back 里拿到的listener matrix才会变成头显的位置。对于Unity支持SDK的硬件这个过程是自动完成的,但如果有一些不在这个范围的厂商头显,要去适配需要自己去做这个过程,或者我们需要做一个跟它类似的SDK在Unity里面去适配其他的头显,对于这两款头显Unity里面已经做了适配,它关联的过程自动的。接下来来看一下在方向的空间化,再来看看距离的方面。对于声音的衰减和声源的移动来说,我们可以在CreateCallback里注册一个距离相关的衰减回调,然后在这个回调函数里我们可以得到当前声音和听者的距离,我们可以增加一个距离声音的衰减并把它应用到音源数据上。对于Initial Time Delay 和 Direct/ Reflectionratio这两个方面,牵涉到声音在三维场景中的反射。即牵涉到了复杂的三维场景,计算量变的非常复杂。我是用一个近似的方法来模拟复杂的3D场景。使用一个cube来模拟3D场景,让我们有反射的感觉。所以我们可以在Create Callback里创建注册一些描述这个近似模拟场景的cude的属性长宽高,然后Unity可以自动生成相应的UI,让我们的audio effect使用者来做调整参数。然后我们在process call back里可以根据这些数据来计算反射,避免引入复杂的三维场景当中声音的反射。对于高频的衰减来说,我们可以在之前HRTF的处理过程中,在转化到频率空间之后,我们是有一个机会去看高频的声音在哪里,我们有机会去定义什么是高频的,在Callback函数里面我们也可以拿到一些值,所以我们可以在这里做一个频率相关的距离衰减。我这里有一个简单的Demo,是关于360视频。因为360视频里没有了镜头的概念,所以当用360视频来叙述故事时,让观众看向剧情发展的地方变的非常重要,这也是空间化音效的一个非常好的使用场景。我们可以靠声音引导观众看重哪些地方。我是下载了360视频放在Unity里面,为了大家看的方便,在每一个声音在的位置都有一个球,这个场景地方一共有300个空间化的音效。在Mac的笔记本上如果是20帧的消耗,跑到120帧的画面场景中20个HRTF音源性能消耗大约时3%左右。同样的360视频,同样的mac笔记本,300个HRTF音源性能消耗大概到27%,但是这时候还有很长的时间发在WaitForTargetFPS,因为我把帧数定在120,如果我们增加到600个HRTF,苹果笔记们也是可以接受的。这个技术在andriod设备上的表现同样的360视频,300个HRTF音源,在小米四上大概有20几帧,至少可以证明它是可以使用的技术,在移动设备上用它有几百个也是可以跑的起来的。本文来源Unity的现场工程师孙志鹏就在Unite‘17大会上的分享内容本文由百家号作者上传并发布,百家号仅提供信息发布平台。文章仅代表作者个人观点,不代表百度立场。未经作者许可,不得转载。永生联众VRAR百家号最近更新:简介:专注VRAR房地产应用等行业资讯作者最新文章相关文章vr眼镜为什么没有沉浸感_百度知道
vr眼镜为什么没有沉浸感
提示该问题下回答为网友贡献,仅供参考。
我有更好的答案
VR眼镜本来就是很沉浸的呀,我怀疑你用了假的了,我用UGP玩的
采纳率:100%
为您推荐:
其他类似问题
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。}

我要回帖

更多关于 沉浸式vr 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信