如何实现可以调整成像焦距对成像的影响的显示器

摘要:尽管有很多技术障碍,巨头在下本投资AR领域;或许等AR火了的时候便不叫AR了,而是我们在钢铁侠中看到的景象——全息投影。
智东西(公众号:zhidxcom)
很多人知道,去年Facebook投资了20亿美元给VR(虚拟现实)公司Oculus,但可能不知道Google领投5亿美元给了一家AR(增强现实)相关公司Magic Leap。虽然这家公司至今没有产品面市,但它们申请的专利与“如何实现钢铁侠中得全息投影”有关。
AR,即增强现实,一种将真实世界信息和虚拟世界信息“无缝”集成的技术。提起AR头显的形态,Google Glass算是消费级AR头显代表,但和我们想象的AR头显还相差很多。微软的Hololens作为AR头显,没有达到它宣传视频的效果,但总的来说,它有着AR该有的功能和形态。
在微软推出Windows10的发布会上,一半的时间介绍了Hololens AR头显。其实对于微软这样一家在操作系统上有深厚功底的公司而言,微软没有太强调这个AR头显设备,而是背后的AR操作系统,或者说全息操作系统。据业内人士表示,微软在这上面至少花费了7年以上的功夫。
除了微软耗费了这么大的精力,还有其他巨头没闲着。如最开始所说的,Google领投的5亿美元给了一家至今没有产品面市,只有专利申请消息的AR相关公司Magic Leap。英特尔携手谷歌入局AR——前一阵子的IDF大会就证明了一切。你认为苹果已安逸现状了吗?苹果年初收购了一家有171个增强现实的相关专利德国创业公司Metaio;再追溯到2013年,苹果收购了一家研发感知动作的摄像技术和设备的公司PrimeSense。
AR头显相关专利图
你没看错,微软、苹果、谷歌、英特尔这四家大公司已不是耍嘴皮子、造概念,而是在AR领域偷偷摸摸布局了。不仅是巨头,据业内人士对智东西表示,除了这四个巨头,索尼、三星、华为、联想也都已经在涉足这一领域了。国内也有一些AR相关公司,但不多。据某个行业人士介绍,大致有10个左右的AR公司在上海、北京、深圳、浙江等地。
这里就想吐槽一句,国内有几家公司敢花巨资如此布局未来?不敢下大手笔给未来,只想着圈眼下的钱,要么在“手机拼装”市场拼个你死我活,但有几个手机核心技术是中国制造?硬件又有几个是我们的,屏幕、摄像头还是CPU?要么烧钱血拼O2O,这样如何成为伟大的公司?
回过头看,AR到底有多诱人,让这么多公司下本?据某权威机构的数据表示,AR未来的市场会是VR的四倍,在千亿级别。那依据是什么?一些领域已经表现出对AR的强需求。
首先是航空领域,对于飞行员来说,AR头显可以让他们的操作更方便快捷。以F-35战机为例,其头盔面罩便是一个被称为“任务系统架构的组成部分”的AR头显。它就像一个小型的透明电影屏幕,能够显示飞机飞行数据、敌方目标位置以及飞行员可以用哪些武器攻击目标。飞行员转头时,显示场景也随之更改,在飞行员和飞机前所未有的计算能力之间建立直接的联系,就像科幻电影中的场景。这个小部件是使F-35成为世界上最尖端的战斗机的关键。
第二个是工业领域,对于工人来说,可以更容易的检修、维护。比如一个人检修一块已经封在了墙里面的管道,按照以前,他需要查看图纸,计算检修点的相对位置,划线找出位置,然后检修;AR头显可以将这个管道系统即时投影到墙面,实时查看“管道透视画面”。电力管线、热力管线、化工管道、下水道…很多地方有这种用途。当然,在工业领域AR的用途很有很多,比如电路图的焊接与检测、警报信息的即时推送(解放双手)。
还有很多领域,比如教育领域,一个具象的、可操控的虚拟物体或许比用嘴讲或平面投影容易让人理解,比如培训领域,尤其是汽车培训领域,已经很强的需求了。
这些应用看似很好,是不是只是一些人的臆想?虽然现在的AR头显不能实现我们希望的全视野的全息投影,但现在的技术实现上面提到的需要的功能已经没有问题。另外,根据AR行业人士所说,已经有很多上游厂商有这个需求并专门找上门了。
以去年为节点,国内掀起了一股VR创业热,先后有90家VR相关公司成立。但被人认为“有着更大市场”的AR,在国内很少有人关注。
说起原因,大致有这么几个方面:1、Facebook用20亿美元收购了Oculus后,无论是创业者还是投资人,都对VR行业有了更足的信心;2、随着Facebook先手收购至少5家VR相关公司,VR的生态架构基本清晰,Facebook这棵大树提供的开源信息也越来越多,做一款头戴显示器的相关技术基本都有据可循,甚至模具都有现成的。3、AR在技术层面上更难实现,尤其是近眼虚拟场景与现实场景构造的光学双通道系统,有人表示,VR所使用的技术是AR的四分之一,当AR头戴显示设备遮挡了现实场景,就是VR。
好事多磨,AR这个大餐可没那么容易吃到。智东西和做AR头盔的SEER团队CEO卫荣杰深入对话。他们的产品年初在众筹网站Kickstarter上16万美元。智东西了解到,至少有三个问题是AR有而VR没有的。
首先,在AR头显中,需要解决虚拟世界和现实世界叠加在一起的光学双通道系统问题;无论是VR还是AR头显,都需要实现虚拟世界的近眼投射,即头显一定是戴在眼睛附近的,而不是像PC、电视那样离用户至少几十厘米的距离。近眼投射在VR头显中很好实现,目前使用最多的方案便是用单片凸透镜将显示屏放大、拉远成像,但AR头显不能这么做,因为还要让现实世界的光线进入——这很困难。目前两个常见的方法是Google Glass的微投影仪加折射和SEER这种把虚拟世界投射到半透半反膜上,据业内人士称,虽然微软没有公布Hololens的光学成像原理,但离不开这两种成像原理。
其次,把现实世界的光捕捉、识别成具体的物体并建立3D模型,给虚拟世界一个承载基础。据业内人士称,微软的Hololens便至少利用了4个摄像头捕捉现实世界的画面。
最后,在AR头显中多了现实世界和虚拟世界的交互问题,即如何在现实世界虚拟出一个物体并和现实世界交互,比如在上一步建立的3D模型如桌子上虚拟一个杯子,并用真实的手拿起虚拟的杯子。
上面这三点基本就是AR头显的基础技术了,从微软给出的宣传视频来看,Hololens基本做到了。但很多人不买账——要么不相信,要么觉着VR头显也能做到且更容易实现。
有人提出,VR头显同样可以利用摄像头捕捉现实世界,并将其叠加到虚拟世界中——这和AR头显“把虚拟世界叠加到现实世界”的想法正好相反。很显然,VR的AR化更容易实现,与此相反,AR头显不但难实现而且在实现过程中还有很多棘手的“小麻烦”。
比如现实世界与虚拟世界要在人眼融合成一个“增强现实”世界(AR世界),即保证现实世界、虚拟世界、人眼在一条线上,防止AR头显投射的虚拟世界相对眼睛发生位置改变,导致虚拟世界与现实世界错位——戴眼镜的人都清楚,眼镜很容易下滑。(大多数情况下,扶眼镜这个姿势并不是为了耍帅)
再比如人眼可聚焦远近,看远景则近景模糊,虚拟世界的画面应该和现实世界同步焦距,但目前AR头显投射的虚拟世界基本都是定焦的,看远景时虚拟世界是模糊的。
就上面提到的“小麻烦”,已经有了一些解决方案,比如SEER的头盔方案降低虚拟世界错位的可能性,用户还可根据需要调整虚拟画面距人眼的成像距离,300mm到7000mm。但显然,这些方案是过渡性的,不能解决根本问题。或许追踪人眼的移动以及焦距才能彻底改善这些“小麻烦”。
回过头去看,AR头显似乎太难实现,而VR利用摄像头捕捉现实世界并将其叠加在虚拟世界里的方法却可以很容易的实现,为什么不呢?不过,AR从业者自然更看好AR头显,“通过摄像头捕捉到的现实世界没有质感、有延迟,目前的方案还有纱窗效应、色偏移等,而光场的还原也难度极高。”
正如上面所述,巨头在下本投资AR领域;在航空、工业、培训、教育领域,AR也都已经有很好的应用场景了;AR实现起来还有很多技术障碍。不过这丝毫不影响一群像卫荣杰这样的人向AR靠拢。人眼全视角的虚拟世界以及虚拟物体和现实世界的完美融合是AR设备研发者追求的,AR隐形眼镜是AR头显比较理想的形态了——这在很多电影中便可看到,但显然在现阶段不可能实现,只能退而求其次,让AR头显像戴着一副眼镜那样——微软Hololens基本做到了。或许等AR火了的时候便不叫AR了,而是我们在钢铁侠中看到的景象——全息投影。
本文仅代表作者观点,不代表百度立场。本文系作者授权百度百家发表,未经许可,不得转载。
分享到微信朋友圈
打开微信,点击 “ 发现 ”
使用 “ 扫一扫 ” 即可将网页分享至朋友圈。
扫一扫在手机阅读、分享本文
百家号作者平台APP
扫码下载安卓客户端
便捷管理文章信息
随时查看文章收益&主题:弱弱的问一句,很想知道现在的机器怎么实现超焦距
泡网分: 13.378
注册: 2007年07月
比如有时候旅游给家人拍照,想要实现人物和远景(山峦)一样清晰的照片,应该怎么做?用F4左右的光圈去拍,总觉得人物虽然清晰了,但是背景的远处山峰什么的,又在景深之外了,会不清晰。
有人肯定会说缩光圈,可是光圈低于F16之后像质就开始明显下降了,且光圈收缩范围相当有限,总不能用F22去拍吧
微信扫一扫分享
&浏览:3688&&回帖:56 &&
泡网分: 50.16
精华: 1帖子: 10207
注册: 2004年05月
手机上下载安装:景深计算器。输入你的的镜头焦段、光圈,立即可以显示超焦距所需要的拍摄距离以及景深。
泡网分: 0.523
注册: 2012年02月
网上也有在线的计算器,记住几个常用焦段的景深和超焦距基本够用,。比如16,24,35毫米,长焦以上的超焦距没什么大的意义。然后焦段F2.8,F4,F8,F11,F16这几个大概记一下。 半幅,全副,120的超焦距是不同的,分别都有选择输入。
泡网分: 0.075
注册: 2012年04月
个人认为,在拍照之前还要用景深计算器算一遍,再拍,真是麻烦
一般都是离被摄体远一点,光圈开到F11-13
泡网分: 9.849
帖子: 2596
注册: 2009年09月
避免用长焦镜头。
泡网分: 0.637
注册: 2011年12月
超焦距用小光圈是必需的了,虽然会因为衍射造成画质下降,但尽量NEF出图方便后期。
有对焦刻度的话是最好的,数码镜头有些带简化的对焦窗,上面会有一个点,表示该焦距下最小光圈的景深范围。
没有对焦刻度像18-105这种我去,手动对焦就跟瞎子一样,景深预览一片黑,远处根本看不清是不是合焦了。但是根据后景深是前景深两倍的法则,可以使用单点自动对焦,合焦点在整个照片构图的下3等分点上。有景深计算器的可以计算一下浅景深最近的距离,有对焦计算尺的更方便。
下图光圈都用到F/25了,而且是18-105,画质就不要苛求了,领会精神就好。 本帖最后由 鹿鸣幽谷 于
10:14 编辑
泡网分: 1.556
帖子: 1547
注册: 2012年11月
dingdingding
泡网分: 0.844
注册: 2011年04月
既要前景人物清晰又要远处的背景也相对清晰,一般情况下得用广角或者标准焦段,如果是这样的话使用F8或者F11拍摄就完全可以做到前后景物相对都清晰。拍摄的时候因为光线不可控制应该特别注意使用闪光灯补光。
泡网分: 2.653
注册: 2011年02月
walkmannn 发表于
手机上下载安装:景深计算器。输入你的的镜头焦段、光圈,立即可以显示超焦距所需要的拍摄距离以及景深。正解!
超焦距,景深这些计算公式还是蛮复杂滴,弄个手机APP,就像这样:
泡网分: 5.619
帖子: 5585
注册: 2012年01月
景深包围可行不
泡网分: 0.106
注册: 2012年01月
买个卡片机,底越小越好。然后用广角端拍。
本帖由移动终端发布
泡网分: 0.173
注册: 2012年05月
我也下了景深计算器,可是怎么计算距离呢?总不能拿尺量吧
本帖由安卓客户端发布
泡网分: 0.117
注册: 2009年06月
先下个软件试一下。
本帖由移动终端发布
泡网分: 1.66
帖子: 1738
注册: 2013年02月
提示: 作者被禁止或删除 内容自动屏蔽,只有管理员和版主可见
泡网分: 25.158
帖子: 3979
注册: 2008年09月
提示: 作者被禁止或删除 内容自动屏蔽,只有管理员和版主可见
泡网分: 0.21
注册: 2013年01月
用广角镜头,小光圈(最大光圈收两档)
泡网分: 4.633
帖子: 1168
注册: 2010年11月
卤莽 发表于
我也下了景深计算器,可是怎么计算距离呢?总不能拿尺量吧这个只能用眼睛估了,也许以后取景器里可以加个测距仪的功能。。。
泡网分: 20.746
注册: 2006年04月
收小光圈。
泡网分: 4.372
帖子: 2859
注册: 2012年10月
色争王 发表于
超焦距,景深这些计算公式还是蛮复杂滴,弄个手机APP,就像这样:
请问这个app的名字?store里的还是JB的?
泡网分: 0.434
注册: 2013年03月
同求APP名字
泡网分: 8.151
帖子: 2823
注册: 2010年04月
实现超焦距是有条件的,不是任何镜头,任意拍摄所能实现的。超焦距是一个应用概念非绝对值,是指预设最大景深避开盲区的快速拍摄,使拍摄的成功率大大提高的一种概率性拍摄,由于现代相机的自动对焦已经程式化,使得超焦距应用变得不那么重要和有意义,所以数码相机取消了超焦距用的景深刻度。如果要在现代相机上实现超焦距摄影就要用概念加评估的办法调整镜头焦距和光圈使景深最大化。大致规律是:短焦镜头,最小光圈,最远主体。这里有必要说的是超焦距摄影增大的景深只是说是人眼能接受的清晰范围,在这个范围里清晰度是有差别的。为了保证主体的最大清晰的条件就不能顾及光圈衍射要使用劲量小的光圈。因为超焦距本身就不是最佳画质为目的的手段,光圈F16以上是必需的。 本帖最后由 an1942 于
22:20 编辑
泡网分: 20.422
注册: 2005年05月
镜头要有距离刻度尺会很方便,手动调焦,把距离刻度尺调成这样。
如下图所示,当光圈为16时,可以保证2.5米至无穷远都是清楚的,当光圈为11时,就把左边的11那条线对准无穷远即可,但景深也相对较浅。。。
不要对焦到无穷远,否则只能保证10米以上是清楚的——想象下图中的一拍数字整体右移。。。 本帖最后由 foamsky 于
22:33 编辑
泡网分: 2.628
帖子: 1481
注册: 2011年08月
longmanity 发表于
买个卡片机,底越小越好。然后用广角端拍。这个方法可操作性最强!
泡网分: 1.355
帖子: 1979
注册: 2012年06月
longmanity 发表于
买个卡片机,底越小越好。然后用广角端拍。
泡网分: 4.922
帖子: 4870
注册: 2011年11月
F16、F22拍,然后回家加锐度、调色~~基本就是这样了,光圈低于F16之后开始下降那是因为现在的机子方便了智能了,所以人们都养成了一个蛋痛的习惯,就是拍了之后放到最大来看,其实F8和F16的画质显示器和电视上看是看不出哪个画质更好或者更坏的
泡网分: 0.194
注册: 2012年08月
gongx3326 发表于
比如有时候旅游给家人拍照,想要实现人物和远景(山峦)一样清晰的照片,应该怎么做?用F4左右的光圈去拍,总觉得人物虽然清晰了,但是背景的远处山峰什么的,又在景深之外了,会不清晰。
有人肯定会说缩光圈,可是光圈低于F16之后像质就开始明显下降了,且光圈收缩范围相当有限,总不能用F22去拍吧
求指导用超广角,景深大的.
泡网分: 0.233
注册: 2009年02月
本帖由安卓客户端发布
泡网分: 2.035
帖子: 1755
注册: 2010年11月
让家人站远点
本帖由移动终端发布
泡网分: 30.714
帖子: 4925
注册: 2004年11月
粗略看了一下,楼下的回答大多数都不得要领。
你都听说过超焦距这个名字了,就没听说过移轴镜头这种东西?
好吧,也许移轴镜头对你来说太贵了,那你可以考虑用很便宜的DC(图像传感器越小越好),或者很便宜的DV,其实DC的图像传感器还不够小,DV有1/4英寸的,绝对满足要求。
本帖最后由 50CC 于
10:52 编辑
泡网分: 26.987
帖子: 1981
注册: 2004年08月
原文由 50CC 在
10:44 发表
你都听说过超焦距这个名字了,就没听说过移轴镜头这种东西?...移轴镜头可以保证一个倾斜平面内景物清晰。所以移轴很适宜拍建筑。但人物和远景完全可认为是两个平行平面,移轴还是没办法的。
本帖由移动终端发布
&版权所有:&&&&【图片】【教程】Unity3D实现3D立体游戏原理及过程,需偏振眼镜3D显示器【unity3d吧】_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:73,831贴子:
【教程】Unity3D实现3D立体游戏原理及过程,需偏振眼镜3D显示器收藏
一直想尝试用unity做3D立体游戏,昨天终于入手了一台3D显示器,并成功模拟出3D信号,出现了3D效果:
带上眼镜后的观看效果不错,个人感觉比一般的3D电影的立体效果还要强。下面的教程是我今天整理的资料,教大家一步步完成自己的3D立体游戏,并向大家介绍一些3D成像的原理。
理论上,每个普通的非立体3D游戏,都可以改为3D立体游戏,看完这篇帖子,你们都可以把自己之前做过的3D游戏改为立体游戏,那效果。。。老规矩,勤快点的盆友看帖子跟着做就出来了,懒点的留邮箱,我给工程实例。厚黑的猫哥就是不给下载链接。。。注:非本吧成员先加入本吧,否则不给邮件!
此楼占用,勿插入!
第一步:了解偏振式3D成像原理
偏振式3D成像是根据人眼成像原理发明的,人眼看到的景象呈现立体感,是由于双眼所观察到的景象有略微的差别,因为瞳距(两眼球之间的距离)导致观察的物体的角度不同。所谓偏振成像就是将两幅不同偏振态的图像送到双眼,每只眼睛只允许看到其中一幅,我们用unity制作3D游戏,其实就是制作这两幅图像。或者说模拟3D信号。这里要感谢这位国外的大神的教程所给的帮助。中文翻译版
第二步:了解现在的硬件技术能帮我们做什么,我们需要做什么
在3D显示器出现之前,我们要做3D立体游戏,估计只能用两台投影仪来实现3D效果了,不过现在的3D液晶显示器大多都是集成好一键转3D功能,在这里这个转3D功能指的是自动识别左右半宽的信号(上下的就不考虑了,一般都是左右),并将其融合,转换为偏振的3D信号,并通过3D眼镜观看到3D效果。当然现在的3D显示器经常会宣传说一键2D转3D功能,这个功能不是我刚才说的融合,而是显示器根据2D影像自动给加上景深,生成左右两幅图像,其实是伪3D,试了一下,的确略微有些效果,不过效果真的不怎么样。。。我们这里还是做真的3D立体吧。
知道了显示器能够帮我们自动融合左右图像后,我们就只需要模拟出左右半宽的图像就OK了。
第三步:如何用Unity3D模拟出3D信号
这步才是我们要做的重点。要模拟出真实的3D立体影像,首先要知道人眼成像原理,上面第一步说了,因为我们有两只眼睛,并分开一定距离(大约150px),这样就出现了距离感。我们都知道unity中的摄像机是模拟人的眼睛的,一般我们在unity中观察场景都是创建一个摄像机,当然就没有立体感了,要模拟人的眼睛,就要创建两个摄像机(好吧,废话一大堆,其实我就是想说,请先创建两个摄像机。。。)。
把场景本来存在的主相机删掉,把创建的两个摄像机放在同一平面,分开很小的距离,角度调成一样,注意不是往中间看,而是平视,人的双眼也都是平视向前的,这个和焦距是两个概念,别弄混了,类似于下面这样:至于相距多少,这个视环境而定,两个摄像机之间的距离类似于人眼之间的距离。我们用自带的第一人称控制器来解释这个距离。导入第一人称控制,把这两个摄像机拖到第一人称控制器的摄像机下,作为子物体,把第一人称控制自带的相机关掉(enabled=false),就是把camera组件对号去掉。把左右相机的位置改为这样:左相机:右相机:对于第一人称控制器的大小来说,这个0.06的距离够用了,为什么说是够用了,不是正好,是因为距离大点小点都是可以的,距离越大,景深越大,看起来更清晰,好像是距离拉近了,不过给人观看的感觉更累了,这个很好理解,人的眼睛距离变大,就相当于人变成了巨人,或者眼前的景象拉近,也就是你把手指从远处拉到眼前的感觉,当近到一定程度是,你要看你的手指就会很吃力,要不就重影~~再近,就是斗鸡眼了,斗鸡眼的感觉,你懂的。。。如果距离拉近的话,3D感会渐渐变弱,最近就是两个相机重合,重合后就没有立体感了。所以这个距离要根据你看的场景而定,对于自带的第一人称控制器,它的大小作为人的大小的话,它所存在的场景比例就是固定的,此时的瞳距根据你想要的效果而定,具体可以在显示器上测试。
当两个摄像机的距离固定后,怎么把影像分开呢?因为我们用3d显示器来融合,就不需要考虑unity的融合图像部分,只需要把两个相机的影像分为左右半宽同时输出即可。要达到这样的效果,用RenderTexture是个很好的解决方案,我们新建两个RenderTexture,分别用来显示左右两个相机的视野,把新建的两个RenderTexture放到plane上,并排放到一起,并新建一个垂直摄像机来单独显示这两个RenderTexture,这个摄像机也是我们最后看到的画面所使用的相机。所以它的depth要设置的高一点。关于RenderTexture,我们需要稍微调整一下,size改为,注意不要改为,即使这样会更加清晰,但是会出现显示不全的情况。注意,此时这两个plane的scale大小只有设为2:1的比例才不会出现图像变形,也就是说plane的大小要和RenderTexture的比例一样才会显示正常比例内容,但是我们需要的并不是正常比例,只要融合后是正常比例既可,显示器的融合功能是将左右部分先放大到整个屏幕,再进行偏振融合,所以我们要的3d信号是压缩一半之后的两个影像,所以降2:1的比例压缩后就成了1:1.也就是plane的大小还是1:1的方形,这样在融合后才不会出现比例失真的情况。大多数的3D显示器的屏幕比例都是,也就是16:9,现在的3D视频分辨率大多也是这个比例,这样在全屏的时候就不会变形或者出现黑边,我们玩游戏全屏不失真的话,也要按这个比例(16:9),当然不全屏的话也是看不了3D的,因为左右半宽的窗体无法融合,3D显示器也不认识这样的3D信号。再回到上面说的RenderTexture的大小(分辨率)问题上来,假如选择了,而game窗口比例又是16:9,unity的RenderTexture为了显示1:1的比例,就把摄像机中间部分显示出来,两侧内容裁减掉了,造成视野缺失,所以要选择size为,不过这样又出新的问题,Game窗口是16:9,也就是摄像机视野比例是16:9,比,也就是2:1的比例要小,造成RenderTexture两侧多显示了一部分,这部分是左右相机视野中没有的部分,必须要去掉的。去掉的方法其实很简单,通过更改材质的UV值即可,也就是让这两个RenderTexture,显示的影像往中间偏移,偏移的量,通过计算可以算出为0.05555…,我们改变UV偏移:由于我们的摄像机视野时16:9,所以附有RenderTexture的plane的两侧内容并不在我们的视野内,这样主相机的显示影像只有左右相机的视野影像,不会有其他的内容.
做到这里,我们在unity中要做的3D方面的操作已经差不多了,剩下的内容就是我们做普通游戏的流程,只要把我们曾经用的相机改为上面做的两个相机即可,我们可以把这两个相机连它们的父物体导出一个预制体,看向RenderTexture主相机和两个附有RenderTexture的plane导出另一个预制体,这两个预制体导出包package,这个package包就是一个转3D立体游戏的插件了,要转化哪个游戏为立体游戏,就把这个包导入,把两个预制体拖进场景,把相机替换为左右两个相机,然后导出游戏就是3d立体游戏了。将导出的游戏(exe)打开,电脑要连好3D显示器,这样在选择比例的时候才有, Windowed的对号去掉,保证是全屏,导出设置里面也有默认全屏,打开后,将显示器改为3D模式,3D显示器一般都有按键在下面或者侧面,有转换3D的功能键,打开后,带上眼镜就可以体验3D立体效果了!
下面这个是我昨天搞出来的注:假如感觉立体效果不明显,就把两个相机的距离拉开一点.
另外推广一下我的其它几篇帖子unity3D 自制音乐播放器Unity3D 关于贝赛尔曲线,平滑曲线,平滑路径,动态曲线[Unity3D]关于txt,xml,json文件的读写,及外部文件(夹)的创建欢迎加入我的QQ群,大家一起交流打个广告,如有u3d程序业务需求,请加群找我私聊
真给力,mark!火钳牛明
猫哥,我来顶贴了阿!32个赞..
RenderTexture好像是Pro only。。。直接改viewport rect更快。。。
没有3d显示器!
学习了,多谢分享
我擦 猫哥给力哇
猫哥威武!
猫哥你懂的 上次的贝塞尔曲线受益匪浅
顶啊喵哥果然强!
留名!顶楼主
好贴,Mark
不错不错收藏了
楼主给力啊
我在手机上做过,一个简单的BMW轿车的展示demo
好给力。。
感觉很好啊。。求大大发份资料学习学习~
太巧了。我也在弄这个在。方法跟你一样哈哈,也是2台摄像机渲染到不同的rendertexture一个屏幕分屏显示。万一有问题了我问求助下你哦
自带左右立体能力,我可是会裸眼看3D哦
d- 想学习学习
登录百度帐号推荐应用(renee世间)
(阿呆的故事)
第三方登录:}

我要回帖

更多关于 小孔成像 焦距 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信