vr虚拟现实实实现过程是怎样的?

揭秘:“VR虚拟现实”到底是如何实现的?
揭秘:“VR虚拟现实”到底是如何实现的?
& & & & & & & &
& & & & & & & & &
& & & & & & & & & & & & VR到底是如何工作的?这种穿戴科技如何使你能够如同身临其境一般站在火星上,而事实上,你有可能将要撞向厨房的台板上!那么,今天我们会解释,VR虚拟现实穿戴设备到底是如何工作的!首先,我们解释一些基本的原理VR虚拟现实头戴设备被Oculus、Sony、HTC、Samsung 及 Google发展起来,通常也需要三样东西:1. 一台电脑;2. 能够运行APP或者游戏的平台或手机;3. 能够在你眼睛前保持足够安全的显示器(也可以是手机的显示器)及输入设备——头部追踪、控制器、手部追踪、声音、按钮及触控板。是什么让每一个人能够沉浸于VR虚拟现实设备中,当游戏或者APP呈现在眼前,整个的体验时如此的真实,以至于我们忘记了电脑、头戴设备及感应器,想在真实的世界中一样。这一切到底是怎样做到的?基本原理像Oculus Rift 及 PlayStation VR这类头戴式可视设备,通用的做法都是要有一个头戴式的显示器。即使没有声音或者手部追踪,放在你面前的这个GOOGLE Cardboard 里的只能手机足够可以使你得到一种半沉浸式的虚拟世界。这些硬件的目标就是,创造出一种跟真实世界中一样的效果。说到3D的无边界显示的视觉环境,我们通常会和电视或者电脑屏幕联系到一起。因此不管你怎么去看,架在你头上的这台设备一直跟踪着你。这里就跟AR将整个真实世界的图像包围你有所区别。以HTC的Vive及Rift为例,他们都是通过高清的数据连接线,平台或者电脑将视频内容输送到头戴设备显示屏。而Google的Cardboard及最新版的Daydream头戴设备,三星的GearVR,他们都是讲只能手机插入到头戴设备中。VR 头戴设备将信号输送到一块屏幕或者两块 LCD 显示上来。但你的眼睛和屏幕之间还隔着镜片,这也就是为什么这些设备被称之为「眼镜」的原因。在一些设备中,你还可以调节两个镜片之间的距离——因为人与人之间的瞳距是不一样的。这些镜片通过对焦和二次成像来修正每个眼睛看到的图像,改变 2D 图像的角度来模仿立体 3D 影像在不同眼睛里的模样。你可以试着闭上一只眼睛,然后快速反复地来回切换眼睛观察物体,你就能明白上述的原理了。VR头戴设备增加沉浸感的一个重要的方式就是扩展视野范围。360度的显示屏可能过于宽泛,并且也没有必要。更多的高端设备是取100到110度之间的可视范围,这对于迷惑眼睛来说,足够了。为了使得头戴设备能够足以欺骗人脑感知的图像,最小的帧速率约为60帧每秒刷新率,这样才能够避免延迟或者眩晕感。当前的VR设备远远超过了这个刷新率,例如Oculus的刷新率可达90帧每秒,而索尼的Playstation达到了120帧每秒。头部追踪当你头戴一款 VR 设备时,头部追踪意味着你眼前的景象会随着你上下左右转动头部而改变。6DoF(six degrees of freedom)这套系统能够将你的头部移动转化成 x,y,z 三个维度,来精确测量头部的前后左右移动等动作。运用在头部追踪系统内的有一系列不同的内部组件,比如陀螺仪,加速计和磁力计。Sony 的 PSVR 同样也在头盔上用到了 9 颗 LED 灯,辅以 PS4 上的摄像头监视提供 360 头部追踪,Oculus 也有 20 颗灯,但是它们不如 Sony 的更有标识度。实现头部追踪技术必须降低延迟——我们说的低延迟是 50ms 或更低,才能让我们在转头或者VR环境改变时候,感觉不到画面的延迟。Oculus Rift 将延迟降低到了 30ms,让人印象深刻。延迟问题同样也是其他追踪输入的一个问题,例如索尼的PSVR在监测我们手部及臂膀动作时,移动状态的控制。最后,耳机也能用于提高沉浸感。双耳或 3D 音频可以被用在应用和游戏中去,与头部追踪技术一块应用,给予穿戴者以临场音效从不同的方向传播过来的感觉。动作追踪至今为止,相对于 Cardboard 似的设备而言,头部追踪依然是那些尚未正式发售的高级头盔的最大优势。但是 VR 领域的「大玩家」们仍然致力于研究动作追踪的功能。当你戴着 VR 头盔向下看的时候,你想做的第一件事肯定是看看自己的手在虚拟世界中的样子。目前,我们已经见识过 Leap Motion 的配件——使用红外线传感器来追踪你的手部动作。我们也用 Kinect 2 摄像头做过一些追踪全身动作的实验。但目前我们已经有的是来自 Oculus,Valve 和 Sony 的输入设备。Oculus Touch 是一套无线控制器,设计的初衷是让用户在虚拟空间里如同使用自己的手一般使用它。比如,在射击游戏中,你可以通过扣下扳机来射击。在控制器上也还有一系列的传感器阵列以识别如点按,挥手等动作。这和 Valve 的 Lighthouse 定位追踪系统以及 HTC Vive 的控制器原型特别相似。它在房间里包括两个基站,并且将整个房间布满激光。它能通过你头部和手上光电管传感器相互碰撞的时机来准确地检测到你的头部和手的位置。和 Oculus Touch 一样,它也具备有特色的物理按钮,更难以置信的是,在同一空间内用两套 Lighthouse 系统可以追踪多个用户。其他的输入方式还包括从 Xbox 控制器上的借鉴过来的控制器或者和 PC 连接起来的控制杆,语音控制,智能手套以及如 Virtuix Omni 一样的跑步机——它能帮助你在虚拟世界里更「优雅地」活动。眼部追踪眼部追踪可能是 VR 拼图的最后一块。Rift,Vive 或者 PSVR 上还见不着这个技术,但它将会出现在 FOVE 众筹的 VR 设备上。那么它是什么原理呢?通过一个内置在头盔里的红外线传感器,FOVE 能够知道你的眼镜在盯着虚拟世界的哪个地方。除了能让游戏中的角色能更快地感知到你在朝哪边看之外,它的另一个的优势就是能提升场景深度的真实性。在标准的 VR 头戴设备中,每个事物都是泛焦的,不是我们在现实生活中习以为常的模样。比如,如果我们的眼睛看远处的物体,眼前的物体就会模糊掉。通过追踪我们的眼睛,FOVE 的绘图引擎可以在 VR 中的 3D 空间中模拟这种效果。没错,模糊也有好的一面。我们的眼睛盯着的物体也需要和现实生活中一样。如果没有眼部追踪,那么你的眼睛看向远方之时,眼前的景象没有任何变化,会有一种不真实感。同样,模拟一定程度的恶心也是必要的。不然 VR 就不能给予你身临其境的感受。最后,头戴设备也需要高分辨率的屏幕来避免颗粒感。
发表评论:
馆藏&203366
TA的推荐TA的最新馆藏中国领先的IT技术网站
51CTO旗下网站
实现Web虚拟现实的最轻松方案―A-Frame框架
作为一个入门教程,本文将引导你一步步实现构建一个加入Web虚拟现实支持的Web页面的全过程。
作者:朱先忠编译来源:51CTO| 14:37
【内容提要】本文将向你介绍一个实现Web虚拟现实支持的最易于上手的方案&A-Frame框架。A-Frame是一款开源的可通过定制HTML元素构建WebVR方案的框架。有了这个框架,Web程序员无需学习一门全新的语言或者类似于Unity和Unreal这样的三维引擎就可以在Web开发中加入虚拟现实支持。作为一个入门教程,本文将引导你一步步实现构建一个加入Web虚拟现实支持的Web页面的全过程。
一、&何谓A-Frame
A-Frame(https://aframe.io/)是一个开源框架,用于使用自定义的HTML元素创建WebVR体验。这些元素使用three.js(http://threejs.org/)和WebGL(https://developer.mozilla.org/en-US/docs/Web/API/WebGL_API)在场景中创建支持虚拟现实的元素,而无需开发人员仅仅为了构建简单的体验而去学习例如WebGL这样的较低级别的API。
A-Frame开发团队正在努力创建可扩展的虚拟现实Web,从而允许开发人员构建具有竞争力的API。而且,这种思想一旦被广泛采用和建立起来,就很可能会成为某个定义的标准的一部分。这使我们今天能够使用例如JavaScript框架和实验版本的浏览器所提供的新功能,而无需等待实现某种标准并等待此标准为浏览器所支持。
二、&设备兼容性问题
接下来,一个很重要的问题很可能就是:A-Frame框架是否是跨浏览器兼容的?得到的一个出人意料的结论是:在各种平台上,只要是WebGL兼容的浏览器,A-Frame体验效果良好;当然在没有VR支持的情况下3D场景仍然看见。这意味着,Chrome、 Firefox、Edge和Opera这些流行的浏览器都能够显示桌面级的交互式3D体验。要想进行虚拟现实体验,需要把一部例如Oculus Rift这样的设备连接到一些支持WebVR技术的浏览器上,从而实现虚拟现实兼容性(请继续看下文内容)。
在智能手机方面,过去两代的运行iOS和安卓系统的现代智能手机是最适合的 (例如iPhone 6+、三星Galaxy&S6+,还有我个人的 HTC One&M9效果都很好)。这其中的大多数智能手机在插入Google Cardboard耳机时也支持虚拟现实。所以,相比与让虚拟现实工作在您的桌面机环境而言,VR兼容性方面在智能手机上实际上更易于实现与管理。
三、&准备工作
要按本文指导完成基于A-Frame的试验,你需要作如下准备工作:
l&要实现一个基本类型的非VR体验:
n&你需要安装一款如上所述的支持WebGL的浏览器。
l&要实现一个基于桌面的VR体验:
n&你需要安装一款支持WebGL的浏览器,例如最新的Chromium WebVR版本(/folderview?id=0BzudLt22BqGRbW9WTHMtOWMzNjQ)或者Firefox的Nightly版本(https://nightly.mozilla.org/)。
n&一款Oculus Rift耳机(也可能是HTC Vive,只是我还没有进行过实际测试)。
l&要实现基于移动设备的VR体验,则需要如下:
n&最新款式的智能设备一般都能够至少实现场景显示并允许你在一个半虚拟现实视图中四处观看。
n&一款谷歌的Cardboard或者Gear VR耳机。
四、&开始工作
首先,请打开A-Frame框架的入门级教程页面(https://aframe.io/docs/guide/getting-started.html)。目前,A-Frame团队已经提供了各种选项以方便进行与A-Frame框架有关的各种试验,这包括CodePen代码片段、一个npm构建版本、一个A-Frame框架的JS文件(可直接下载或通过CDN取得),一个HTML模板和一个本地开发服务器。为了使事情尽可能简单,我们将下载并直接使用A-Frame样板(/aframevr/aframe-boilerplate/archive/master.zip)进行工作。
把上述模板解压到你的系统中你的Web项目所在位置。这个模板不必一定要运行于本地Web服务器上。模板使用来自于CDN的A-Frame框架,因此我们只需主要关注index.html文件即可。配置文件package.json中提供了一个基于npm的本地Web服务器用于测试目的。在本文中,我们将使用这个服务器&&然而,现在不必测试它。
五、&启动本地服务器
如上文所述,A-Frame样板带有它自己准备使用的本地Web服务器。虽然这并不总是测试你的A-Frame框架的必要情形,但是这样做却是一个良好的实践并能够减少通过您的计算机上文件系统运行网页时出现的各种跨同源策略问题所带来的困惑。
为了运行本地Web服务器,请从你的终端/命令提示符下切换到你的模板项目文件夹中,然后运行下面的命令U
npm install && npm start
这将安装Web服务器必需的所有文件,然后运行它。之后,如果你想要再次运行服务器,只需运行命令&npm start&。
一旦运行本地Web服务器,它应会自动打开我们的web浏览器并加载我们的模板网页文件。模板中加入了LiveReload支持&&这意味着,无论何时更改页面其内容都会自动刷新。
如果你需要在不同的设备上打开网页,或者在运行本地Web服务器后网页不会自动打开,您可以通过在你的浏览器输入或者。注意,这里的IP地址正对应于你的计算机的IP地址。
你应该会看到初始场景看起来像下图所示的样子U
六、&构建新场景
现在,让我们删除模板代码并去掉&body&标记内的所有内容,仅留下&a-scene&部分。我们所有的A-Frame元素都将放于这个&a-scene&组件内部。目前代码如下所示:
&!DOCTYPE html&
&meta charset=&utf-8&/&
&title&Our First A-Frame Experience&/title&
&script src=&https://aframe.io/releases/0.2.0/aframe.min.js&&&/script&
&/a-scene&
A-Frame提供了一组原型,这些原型提供给我们VR场景中常用的元素。
接下来,让我们添加一些元素来搭建一个定制场景。
七、&创建天空
每一个场景都需要一个天空部分(或者是某种类型的背景)。这或者是一个单色图像或者是一幅全景图像。这部分内容的原型是&a-sky&。
使用单色图像实现的天空部分的代码如下所示:
这将为我们的目标场景创建一个可爱的自然明亮的紫红色天空效果,如下图所示:
犹如辉煌的天空效果一样,使用一幅360度全景图像将看起来更漂亮。找到这样的天空盒图像的一个很好的去处是Flickr网站。此网站上提供了不少的全景图像供大家自由重用。
我在Flickr上发现了Luca Biada(https://flic.kr/p/bCMJ4X)提供的如下一幅图像:
当我们使用如下代码把它置于我们的场景中时:
我们可以得到该场景的一个如下图所示的360度全景图:
八、&加入一个长方体
现在,我们有了一个场景。接下来,让我们为它添加一些元素。这要使用&a-box&原型,我们可以将一些长方体和立方体放到我们的场景中。下面的代码将把一个橙色的长方体添加到我们的场景内的道路上:
&a-box color=&#B76705& depth=&2& height=&2& width=&4& position=&0 0 -1.25&&&/a-box&
代码中的color属性与前面我们的天空盒中的color属性作用相同,用于指定我们的长方体元素的材质颜色。然后,通过属性depth,height和width指定形状。我们的长方体尺寸是2 x 2 x 4,样子像个很宽的盒子,隐隐约约看起来像个放到路上的纸车。要想把盒子放到场景中的不同位置,只需要修改一个它的position属性即可。这个属性使用了三个值,分别对应于三个坐标轴:x轴、y轴和z轴。
通过上述代码创建的长方体,在我们的场景中看起来有如下图所示的效果:
九、&加入几个圆柱体
现在,我们将使用&a-cylinder&原型把几个柱子添加到场景的街道中:
&a-cylinder color=&#1E130E& height=&40& radius=&0.5& position=&-40 0 -8&&&/a-cylinder&
颜色和位置属性以与上面我们创建的长方体含义一致;但是,这里还添加了两个新属性&&height和radius,这两个属性分别用于设置圆柱的高度与半径。下图给出的是我们添加了新柱子后的场景图。
于是,我们可以非常容易地扩展上述想法。这只需要使用下面的代码就可以添加一排柱子:
&a-cylinder color=&#1E130E& height=&40& radius=&0.5& position=&-40 0 -8&&&/a-cylinder&
&a-cylinder color=&#1E130E& height=&40& radius=&0.5& position=&-10 0 -8&&&/a-cylinder&
&a-cylinder color=&#1E130E& height=&40& radius=&0.5& position=&20 0 -8&&&/a-cylinder&
&a-cylinder color=&#1E130E& height=&40& radius=&0.5& position=&50 0 -7&&&/a-cylinder&
运行结果如下图所示:
在A-Frame框架中,圆柱体(Cylinders)还有其他许多选项可用,读者可以自己查阅Cylinder参考文档(https://aframe.io/docs/primitives/a-cylinder.html)。
十、&再加入一个球体
现在,我们再在3D场景中添加一个球体。这可以通过使用&a-sphere&原型来实现,像下面这样:
&a-sphere color=&#000000& radius=&2& position=&0 15 20&&&/a-sphere&
这段代码直截了当,它创建了一个令人有点毛骨悚然的黑色球体,漂浮在我们身后的天空中:
十一、&添加材质
我们可以通过&a-assets&标记将纹理添加到我们的长方体、圆柱和球等原型上。这需要搭建一个A-Frame资源管理系统,使我们能够定义资源,然后把它们应用于我们的形状之上。这是推荐的把纹理添加到场景的方法。
我下载并稍微修改了网址提供的一幅图像作为纹理使用。然后,我们可以通过如下方式将该资源添加到我们刚刚创建的场景中:
上述代码中的Id属性给出了引用纹理并把纹理应用于场景中的对象上时的名称。src属性告诉A-Frame我们想使用的图像文件名称。为了给场景中的对象指定材质,我们可以把材质通过对象的src属性指定&&在纹理的ID前面使用哈希技术,请参考下面代码:
&a-sphere src=&#darktexture& radius=&2& position=&0 15 20&&&/a-sphere&
通过上面的代码,将在天空中创建一个随机的、阴森森的球体,从效果上看将是一个更好看的、接近于科幻效果的纹理。请参考下面的效果图。
十二、&运行效果展示
要想实际在VR中观看上述体验,那么你要么需要把一个Oculus Rift连接到你的PC上,或者需要一部时髦的智能手机!当然,智能手机是最容易的选择。如果你没有VR耳机,那么当你走到你的智能手机上显示的场景中时你仍然能够看到上面实现的一切。此时,你可以摇动你的手机四处走走;请参考下图。
如果你有一个与你的手机一起使用的Google Cardboard耳机,你可以点击右下角的VR图标切换到VR视图下,请参考下图。
十三、&VR体验
好了,如果你想在上面的A-Frame大街示例中走上一走,那么,很好。你可以从这里点击A-Frame大街示例(/demos/aframedemo/)去体验一把吧。
十四、&小结
今天,当我们提到WebVR时,A-Frame无疑是一个简单而易于使用的框架。通过此框架,我们可以实现很多基于跨浏览器兼容的VR体验。其实,我们可以使用A-Frame实现更多的功能。在以后的文章中我将继续介绍这些问题。谢谢阅读!
【编辑推荐】
【责任编辑: TEL:(010)】
大家都在看猜你喜欢
头条头条专题专题专题
24H热文一周话题本月最赞
讲师:1人学习过
讲师:3人学习过
讲师:29人学习过
精选博文论坛热帖下载排行
本书第1版曾被KDnuggets的读者评选为最受欢迎的数据挖掘专著,是一本可读性极佳的教材。它从数据库角度全面系统地介绍了数据挖掘的基本概念...
订阅51CTO邮刊vr虚拟现实 如何实现互联网的终极形态?
vr虚拟现实 如何实现互联网的终极形态?
  【讯】7月1日消息,vr,如何实现互联网的终极形态?这个时代是互联网的时代,也是vr的时代。随着vr眼睛的火爆,vr虚拟现实开始进入人们的生活。相信随着vr技术的发展,它必然更加深入人类的生活,就像互联网一样。而vr也是实现互联网终极形态的保障。
  有人会问互联网的终极形态是什么?
  要知道问题的答案,我们就要知道互联网的作用。互联网简单来说是一个平台,是媒介,他能为人类提供服务,满足人们的需求。而它能成为时代的潮流,最主要的一个原因,是便捷,高效。
  有句话说的好,世界那么大,我想去看看。而想要最快看到世界最美的时光的方法是什么?很简单打开互联网。但是这么做有一个极大的缺点,那就是自己看到的哪有亲身体会的好呢?
  而互联网的终极形态则能解决这个问题,因为互联网的终极形态是虚拟世界,是与现实社会相结合的虚拟世界。
  我们可以想象一个世界作为服务的平台,那时怎样的快捷方便?举个简单的例子,你要买巴黎的衣服,但是你在遥远的中国,你没有时间,那怎么办?进入虚拟世界,输入巴黎时尚街的IP地址,意识进入与现实完全匹配的虚拟的身体中,在没有店员的商店里挑选自己喜欢的衣服,尽情的试穿,最后选择好衣服,下单。而现实中的巴黎则通过快递把选中的衣服送过来,这是何等的美妙。当然互联网的终极形态并不仅仅如此,它能为我们提供的服务很多很多,你可以尽情的去想象。
更多精彩内容,请关注科技讯微信公众账号:kejixun
23:41 更新
23:12 更新
21:53 更新
19:58 更新
17:36 更新
22:53 更新
22:30 更新
22:00 更新
21:38 更新
20:04 更新
19:41 更新
19:32 更新
12:50 更新
12:50 更新
12:50 更新
&&科技讯版权所有&||||||播放列表加载中...
正在载入...
分享视频:
嵌入代码:
拍下二维码,随时随地看视频
我们是如何在《我的世界》中实现虚拟现实的(中文字...
上 传 者:
内容介绍:
我们是如何在《我的世界》中实现虚拟现实的(中文字幕)
我来说点啥
版权所有 CopyRight
| 京网文[0号 |
| 京公网安备:
互联网药品信息服务资格证:(京)-非经营性- | 广播电视节目制作经营许可证:(京)字第403号
<img src="" width="34" height="34"/>
<img src=""/>
<li data-vid="">
<img src=""/><i data-vid="" class="ckl_plays">
<img width="132" height="99" src=""/>
在线人数:
<li data-vid="">
<img src=""/><i data-vid="" class="ckl_plays">
<img src="///img/blank.png" data-src=""/>
<img src="///img/blank.png" data-src="http://"/>
<li data-vid="" class="cfix">
src="///img/blank.png" data-src=""/>
<i data-vid="" class="ckl_plays">
<li data-vid="" class="cfix">
src="///img/blank.png" data-src=""/><i data-vid="" class="ckl_plays">
没有数据!
{upload_level_name}
粉丝 {fans_count}
{video_count}
{description}问题已关闭
与已有问题相似
问题已重定向至
虚拟现实该如何定义 和增强现实之间的区别是什么?
虚拟现实改如何定义 和增强现实之间的区别是什么 我们经常看到人家说虚拟现实,增强现实,那些东西可以算虚拟现实?oculus? google glass? 这个东西究竟如何区分和定义?
目前媒体所常说的Virtual Reality(虚拟现实)和Augmented Reality(增强现实)以及Holography(全息),在运用上不是十分准确,定义范围有含糊或不准确的地方。通俗而泛泛地说:能够让人感觉进入了一个并不存在的人工制造的环境之中,就是VR“这是哪儿,我怎么到了这里?”能够让人感觉在所处的环境中增加了一些并不存在的人工制造的实体,就是AR“这是什么,它怎么出现在这里?”VR部分:显而易见,VR的完全形态是即时的,无限制的,包含完全输入和输出,即模拟视觉,听觉,触觉等体感,让用户在虚拟世界中进行任意主动行为并接受到相应反馈的形式。也就是说,Matrix,脑后插管才是究极形态,达到缸中之脑的程度,完全不可能也无从区别“现实”和“虚拟”的程度为VR的最终体现。而我们现在说的VR概念,通常都是OculusVR及类似的解决方案,基于Head-mounted display(头戴式显示器)和Immersive multimedia(浸入式多媒体技术)的狭义概念。也就是以计算机技术为依托,以全视野视觉为基本媒介,使用户产生浸入感的部分VR效果实现。具体来说是当用户带上HMD之后,通过双眼分离展示图像的形式使用户产生明显的3D视觉效果,并通过头动跟踪使用户的视野与行为相匹配。图为比较粗陋的,通过6个方向的墙壁和地面投影实现的Full-field(全视野)VR技术,有助于让您理解浸入式体验,而目前的VR技术体验显然比这个好多啦图为比较粗陋的,通过6个方向的墙壁和地面投影实现的Full-field(全视野)VR技术,有助于让您理解浸入式体验,而目前的VR技术体验显然比这个好多啦AR/全息部分:应该说,AR在目前阶段和Hologram(全息技术)有部分重叠:(实际上领头羊微软在其AR设备中就用了Holo这个词而非AR)传统的全息(投影)技术指利用光学技巧,实现完整的,可以从360度观察的虚拟形象,通常是依托可以多方向观察的多面体设备和多个不同角度的投影来实现,由于这个形象是确实的光学形象,是开放的,多人可见的,因此也可视为面向全体的AR/全息技术。微软和Google系目前的解决方案,也是是基于Head-mounted display(头戴式显示器)和Immersive multimedia(浸入式多媒体技术)的方式,也就是以计算机技术为依托,以全视野或部分视野视觉为基本媒介,使用户产生看到了虚拟实体存在于现实空间中的效果,因此可以视为面向个人的AR/全息技术。这两张图的相同之处在于,桌面上都有一个虚拟的,可以通过任意角度观察的虚拟3D形象;区别是,前者的形象是任意人可见,后者只有带着镜片的人能看到。同样显而易见的是,AR的究极形态是显示出的实体包含有真正意义上的“完全信息”:不仅可以看到,可以触摸,有全感官体验,还可以接受和反馈所有互动——还是只能靠插管。最后一点是我的理解:可以意识到,现在的狭义AR和VR是非常类似的东西——它们依托于非常接近的技术基础,采用非常接近的展示形式。区别在于视野中”真实“和”虚拟“的环境要素比例:任何AR,展现一个虚拟信息的时候,必然遮挡或取代了部分现实景象,而当展现的形象足够多,遮挡了全部现实景象时——就是VR了。所以,从这个意义上讲,VR是AR的一种极端体现形式,或者说是AR的一个真子集——即VR是虚拟要素占比达到100%时的AR。
先下一个简洁的定义: 虚拟现实是将人的感知带入数字内容。增强现实是将数字内容带入人的感知。下来我们来形象一些这个定义。首先,虚拟现实的第一个感受,就是你的感官被“封闭”了。比如Oculus rift 用一个大罩子将你的眼睛彻底封闭在了它的视觉环境中。 视觉提供了我们70%以上的感知,这就是为什么VR最关注接管的感知就是视觉。这也就是为什么当HMD开始大量出现的时候,人们最渴望的是更直观的输入设备——control VR类控制系统,提供感知后的行为反馈被带入数字内容的真实性;更丰富的输出设备——Oculus VR 为此推出了音频SDK,提供听觉被带入数字内容的真实性。总之,带入尽量多的感知到数字内容,是VR的技术方向。让我们回过头来再看增强现实,一旦我们理解了虚拟现实,增强现实在技术上几乎就是它的反向实现。这里要注意的是,我们大多能看到的增强现实,是摄像头实现的。就如VR首先接管视觉一样,增强现实将数字内容带入我们原生的感知世界的时候,最先要增强的就是视觉。可能大家会奇怪,为什么我要用“原生感知世界”,而不是“现实世界”这个方法来说明增强现实。其根本原因,在于技术上,支撑增强现实的传感器技术,服务的是我们的感知世界。摄像头是将现实光影所构造的视觉,尽量真实的还原到我们眼前,在这个过程中,任何数字内容的叠加,都是为了扩展我们的视觉感知,而不是现实世界。用这个原理去推导,增强现实就不可能是我们现在所直观感受的那样只和“摄像头”打交道,从原理上,声音(麦克风),角度(陀螺仪),空间位置(GPS)都是增强现实的触发传感器。总之,带入尽量多数字内容到感知中,是AR的技术方向。这是从技术方向上对AR/VR的分类定义。但不管如何分类,AR/VR都有着一个最基础的技术需求:传感器。传感器技术提供了感知和数字内容能够以尽可能真实的状态互相连接。陀螺仪,光线追踪,GPS,眼球追踪……各种类型的传感器,已经或者将要复合态的把感知世界扩充到数字内容中。这已经进行了超过半个世纪的尝试,在今天传感器技术终于趋于完善和丰富的现在才诞生了一系列可以普及的AR/VR硬件。说了一大堆,我只想说明,AR/VR不管是哪个技术方向,本质上都是对我们感知世界的扩充,现实世界只是我们的“原生感知世界”,AR/VR就是致力于用新技术,将这个原生感知世界,加入一个数字内容的新维度。
答案尽在这两篇文章之中
虚似现实是梦到鬼了,增强现实是大白天遇到鬼了。
我所理解的虚拟现实,是对一种设想的场景的实现,这种场景可以是现实存在的,也可以是虚拟的,凭空捏造的,在这里,我们可以不用受制于现实约束,制约我们的,只有想象力。增强现实则是在现实既定存在的物体上,将之放大,或者复杂化,但本质还是以存在的物体作为基础,少了这一点,AR也不存在了。所以google glass严格意义上,并不算是AR设备,只是装备于人身上的另一块屏幕。我认为的AR设备,应该是对人类感知能力的放大化设备,如同HoloLens般,看到一辆摩托的同时,将之扫描建模,从云端分析数据,最后展示大量相关数据给用户。注重的是信息的收集和分析。VR设备则注重模拟,模拟现实世界,也可以模拟不存在的事情,注重推演和演化。至于最终将人类社会搬到VR世界里...这个事情太遥远了...搞成黑客帝国就不好了...当然康大的问题肯定不是这么简单,但我水平有限,权当做抛砖引玉罢了。
Milgram在94年就给出定义了——补充资料:(pingwest品玩网)……增强现实(AR)是相对容易被误解的,相比起虚拟现实(VR)来说,它不是单纯被创造出来的——而3D建模、模拟世界这样的纯粹被创造出来的东西更好理解。所谓现实,就是我们肉眼看得到的、耳朵听的见的、皮肤感知的到的、身处的这个世界。如果广义的说,在现实的基础上利用技术将这个增添一层相关的、额外的内容,就可以被称为增强现实。……相比起AR,虚拟现实(VR)就好明白的多了:一个完全被创造出来的世界,而与3D建模、4D电影这种最大的不同在于:这个被模拟出来的世界要能带来与真实世界一样的感受(这种感受指的是人身体上的感受)——Oculus首席科学家Michael Abrash提出的观点。所以,请记住,VR是假的,一切都是假的,但是尽量让你的感受是真实的。虽然都有现实二字,但是二者实现起来的技术核心却有很大的不同,AR需要将“信息”与场景进行结合,而VR的核心则是运算技术。……(作者:)
“VR lets you explore unreachable worlds but tries to simulate
infinite variety of reality instead of augmenting it.”
短的版本:戴在头上能看见路的是增强现实,看不见路的是虚拟现实。长一点的版本:增强现实强调用虚拟世界的信息来加强你的现实体验。体现在实际操作上,在允许用户看见现实世界的同时显示虚拟信息。谷歌的GoogleGlass, 微软的HoloLens,龙珠里的战斗力探测器都属于这一类。虚拟现实强调创建一个完全的虚拟世界。这自然要求尽量切断用户与现实世界的联系。任天堂早期的VB,OculusRift,以及科幻作品中的脑后插管、神经连线都属于这一类。
已有帐号?
无法登录?
社交帐号登录}

我要回帖

更多关于 虚拟现实如何实现 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信