AR初学者买什么纹身机比较好看什么书比较好

目前国内wikitude教程除了中国AR网,还有哪一家比较适合新手?_百度知道
目前国内wikitude教程除了中国AR网,还有哪一家比较适合新手?
答题抽奖
首次认真答题后
即可获得3次抽奖机会,100%中奖。
获赞数:11
擅长:暂未定制
虎虎VR有一些,可以参考下
为你推荐:
其他类似问题
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。EasyAR 初学者入门指南(3)---二维码+AR的应用(下)
我们接着上一篇的案例继续进行开发。上一篇了我们讲解了如何用EasyAR 的unitypackage从零构建一个简单的二维码+AR的demo,这一篇了我们在此基础上继续完善demo。
NGUI插件:链接: https://pan.baidu.com/s/1jHHKniQ 密码: vpyz
资源地址:链接: https://pan.baidu.com/s/1eR5biRS 密码: w3yb
代码地址:链接: https://pan.baidu.com/s/1skD2uRz 密码: by3v
Step 1:准备
首先是关于识别图的准备,在这次的案例演示中我使用了如下的图片(二维码可以自己制作):
在unity中我们新建一个文件夹"StreamingAssets",将识别图导入。并且新建文件夹“Scripts”,导入提前准备好的资源,框架图如下:
Step 2:制作ImageTarget
将ImageTarget拖入到面板中
remove掉原来挂在ImageTarget上的脚本,将我们导入的"EasyImageTargetBehaviour" 挂在上面(这部分属于EasyAR
图像识别最基本的操作,不懂的可以看看:)
填写识别图信息,将我们导入的那张带有二维码的识别图名字与size配置好
为了能在unity中看到识别图的具体信息,我们建立一个材质球使其显示。新建Material,模式设置为Mobile/Diffuse.效果如图:
这样在unity编辑器中就可以显示了,方便我们设置Scan扫描特效的配置
Step 3:制作扫描特效
scan 拖到ImageTarget 下面
适当调整Scan的位置与scale,这里大家自行调整使其达到一个合适的位置
编写脚本"Move",实现扫描效果。脚本的思路其实很简单,就是在Update里不断更新Scan材质球的texture 的offset。
Step 4:制作UI显示二维码内容
我们使用NGUI来完成ui的制作。在这里的思路是根据你的二维码文字内容建立相应的label(我们在代码实现是通过逗号来分割内容分别显示在不同的label上)在本次的案例演示,我建立两个label(分别显示EasyAR与Cool)和一个Button(点击跳转网页)。具体的ui位置配置大家可以自行调试,效果如图:
我是将三个UI控件(label,button)放在一个Empty GameObject下面,即"b"下面。我们将"b"添加个Tween 动画,使其演示效果更加炫酷,在这里我用的是Tween/Scale这一模式
最后,将"b"这一GameObject
设为不可见
Step 5:编写代码
首先我们修改完善"Move" 这个脚本。思路是这样的,我们设置一个扫描时长,当达到这个时长时,我们设置Scan
这一object不可见,并且把我们准备好的UI控件显示,完整代码如下:
脚本下载地址:链接: https://pan.baidu.com/s/1pKNFKMn 密码: xh6m
在unity操作界面将"b"赋值到脚本里
然后我们修改绑定在"EasyAR_ImageTracker-1_QRCode-1" 上的"ARIsEasyBehaviour"
脚本文件。主要是实现获得二维码内容text后将它显示在我们准备好的UI上。
在开头定义UIlabel
public UILabel text1;
public UILabel text2;
然后在OnTextMessage()
方法里实现
private void OnTextMessage(ARCameraBaseBehaviour arcameraBehaviour, string text)
textMessage =
text1.text = textMessage.Split (',')[0];
text2.text = textMessage.Split (',') [1];
startShowMessage = true;
Debug.Log("got text: " + text);
最后注释掉原有的OnGUI方法即可。
完整代码地址:链接: https://pan.baidu.com/s/1jIwvMFs 密码: c8t8
对于按钮的交互,我们实现的是点击之后跳转到EasyAR SDK2.0的网页,实现起来相当简单,一句代码即可:Application.OpenURL ("http://www.easyar.cn/view/sdk.html");
实现到这里,我们基本上就可以完成案例效果了。关于二维码+AR的应用,目前主要应用到AR名片上,在这里我只给大家一个案例框架,大家可以开开脑洞,开发出更好玩的AR应用。
EasyAR 初学者入门指南(3)---二维码+AR的应用(上)
EasyAR从入门到精通开发系列教程(2)--创建模型并互动
easyar的首次使用教程
使用EasyAR.sdk创建一个简单的AR安卓应用
EasyAR开发技巧---模型交互操作
EasyAR1.3.1入门
Vuforia SDK---- AR开发vuforia 二维码扫描
EasyAR尝鲜系列教程之ImageTarget千呼万唤始出来
AR.js开发问题详解(二维码识别不出来及AR二维码如何进行训练)
Unity3d Ar Vuforia +zxing 实现二维码扫描
没有更多推荐了,AR7161和AR9344哪个更好? - 新手入门及其它(硬件) -
恩山无线论坛 -
Powered by Discuz!
后使用快捷导航没有帐号?
只需一步,快速开始
请完成以下验证码
请完成以下验证码
查看: 6693|回复: 17
AR7161和AR9344哪个更好?
AR7161与AR9344都是老芯片了,哪个性能好些?有人可能会说g的处理会损失一部分性能,那如果我关闭9344无线网卡的情况下,9344是不是高于7161?
我的恩山、我的无线
The best wifi forum is right here.
AR的大部分CPU的以太网模块都不带硬件加速功能,如硬件NAT,硬件QOS,TSO,硬件校验和等(仅AR934X和QCA955X支持硬件NAT,我指的是CPU支持,不是交换机),并且OpenWrt都不支持这些硬件加速功能(TSO、校验和除外)。
因此无论是来自以太网的数据包还是无线网卡的数据包,都必须经过CPU处理,以实现NAT功能或者过滤、QOS、接口桥接等功能。
那么普通用户关心的硬件指标也就是NAT转发效率了,这个跟CPU的性能(注意,不是主频)挂钩,CPU性能越高,那么NAT效率就越高。
说CPU性能而不说CPU主频是因为如果CPU架构不好,主频再高也是渣渣。例如我最近在搞的RTL8196C,主频390MHz,NAT转发性能还比不上184MHz的AR2317(这里要说明普通RTL8196C固件是开启了硬件加速的,我这里说的就是纯CPU处理的NAT性能)。
然后因为网络流量来自于不同的设备,例如无线或者有线,那么当两者都有数据包需要传输时,CPU需要按照一定的优先级,将其处理能力分配给所有需要处理的设备。因此和处理单一设备的数据包的情况来比,肯定就像出现了性能损失。因为CPU的处理性能是个固定值。
就你的问题而言
虽然 AR7161 是 MIPS 24K 架构的,AR9344 是 MIPS 74K 架构的,但是两者的差别不大,因此性能才能够根据主频来大概比较。
AR7161 默认主频是 680MHz,据说能够超频到 1GHz;AR9344 默认主频是 560MHz,超到接近 900MHz就是极限了。也就是说差别也不是很大。
另外要说明的是,主频不代表指令执行的速度,因此实际上这点超频对性能的提升影响不大。所以最终可能还是 AR7161 的性能要稍高于 AR9344。
NAT 效率大概不到 300Mbps 吧,没有实际测试过,数据来自于网络。
这里说的是 NAT 效率。
除了大部分人最关心的网络性能,还有很多因素能够影响整个芯片的性能。
1. 内存性能
SDRAM 内存有几代,SDR、DDR、DDR2、DDR3等,每一代的性能都在提升
内存频率直接影响内存数据的存储效率
DDR 内存最高主频是 400MHz,可以适度超频,没什么用。
DDR2 内存最高主频是 1066MHz。
AR7161 使用 DDR 内存,在默认主频 680MHz 的情况下,DDR 频率只有340MHz,受制于 CPU 主频。
AR9344 一般使用 DDR2 内存,默认主频是 450MHz,而且可以单独适度超频。
另外内存数据总线的位宽也是一个影响因素。一般路由使用的单片内存是16位的,也就是说一次访问能获存取2字节的数据。两片16位的内存组成32位数据线,那么一次就能存取4字节的数据,那么理论上32位的总线存取数据的效率就高于16位数据总线。
然后内存配合 CPU 可以实现 Burst 特性,也就是在一次访问时,连续存取一定量的数据,以减少访问内存的次数。
2. CPU 的缓存命中率
CPU 访问内存的效率远远低于 CPU 自身执行指令(如访问寄存器)的效率。因此 CPU 都会有高速缓存。
CPU 的缓存控制器能够预测 CPU 将要访问的指令或者数据,并且将其提前从内存加载到缓存中。
当 CPU 将要访问某个地址的数据时,如果这些数据在缓存中,那么 CPU 就直接使用缓存中的数据,而不会去访问内存,那么就会节省时间,提高效率。这种情况就叫做缓存命中。
反过来就是缓存未命中,此时CPU就会去访问内存,将数据加载到换成再继续执行,这就很影响效率。
如果 CPU 的缓存命中率交底,那么 CPU 就会不停地去访问内存,那么就会造成性能严重下降。
AR7161 / AR9344 这些基本不用考虑这个的影响,因为缓存命中率都在 90% 以上。
另外,关于 USB 到 LAN/WAN 的传输效率
USB 总线的频率是固定的,所以 CPU 频率不会影响 USB 的传输效率。
USB 通过 DMA 直接在内存上存取数据,所以内存性能会影响 USB 的效率
但是在 MIPS 的 CPU 上差别应该不大。
至于为什么一些 MTK 的 CPU 的 USB 到网络的传输速率很快,那是因为这些 CPU 支持 TSO
AR/QCA 的所有芯片都不支持该功能,因此全部看 CPU 效率。
以上说了这么多,可以总结出一点,那就是固件会影响设备的性能。
因为一些原厂固件开启了全部硬件加速,例如硬件NAT、硬件QOS、TSO之类的,因此网络传输效率很高,而且几乎没有 CPU 参与
OpenWrt 之类的因为不支持大部分硬件加速功能,全部靠 CPU 处理,因此效率就不高
最后,回到你的问题
如果你用官方 OpenWrt/LEDE 固件,那么性能差别不大
如果你用原厂固件,那么 AR9344 的 NAT 性能就可能提升很大,AR7161 没这功能
如果做路由,答案你说了,
如果做AP或者网桥,
能从,带机量和功耗,以及性价比评审下吗,毕竟AP和网桥不注重nat和qos&
我的恩山、我的无线
The best wifi forum is right here.
学习了,有个3800网件,也是71系列芯片。
我的恩山、我的无线
The best wifi forum is right here.
mark一下,h大给解答了啊
我的恩山、我的无线
The best wifi forum is right here.
H大对ar7161与ar9344的性能分析的深入浅出,难能可贵!
我的恩山、我的无线
The best wifi forum is right here.
AR的大部分CPU的以太网模块都不带硬件加速功能,如硬件NAT,硬件QOS,TSO,硬件校验和等(仅AR934X和QCA955 ...
如果做路由,答案你说了,
如果做AP或者网桥,
能从,带机量和功耗,以及性价比评审下吗,毕竟AP和网桥不注重nat和qos
AP的话,只考虑瘦AP的情况
这种情况下,基本上就是单纯的有线到无线的二层转发
那么不涉及到IP/端口的改变
那么就仅仅是从一个设备接受数据包,然后发送到另一个设备而已
这种包转发是全部由CPU完&
性能纯看CPU,功耗那是不可能理论分析的&
我的恩山、我的无线
The best wifi forum is right here.
如果做路由,答案你说了,
如果做AP或者网桥,
AP的话,只考虑瘦AP的情况
这种情况下,基本上就是单纯的有线到无线的二层转发
那么不涉及到IP/端口的改变
那么就仅仅是从一个设备接受数据包,然后发送到另一个设备而已
这种包转发是全部由CPU完成的
如果有多个设备,那么还是如我之前所言,CPU的处理能力会根据一定的优先级分配给各个设备
也就是说总的转发量一定,如果设备越多,那么单位时间内每个设备的转发量就会变少
就你的情况来说,如果AP是双频的,那么可能会有如下转发:
2.4GHz &-& 有线
5GHz &-& 有线
2.4GHz &-& 5GHz
那么CPU的处理能力会分给3个设备
如果禁用2.4GHz,就只剩下
5GHz &-& 有线
的转发了,这样当然会提升单一路径的转发效率
所以都看CPU
当然还有一点要考虑的就是硬件加速
这种情况下能用到的就是硬件校验和 和硬件加密了
AR的芯片基本都没有硬件校验和功能
但是都有硬件加密功能,也就是 AES/TKIP 之类的无线数据帧加密,减轻CPU负载
AR/QCA的原厂无线应该是支持这个功能
开源驱动ath9k/ath10k就不清楚了,如果不支持的话,那么性能就会跟原厂驱动拉开差距
另外说一下,现在有 MU-MIMO模式的wifi,但是以前的无线芯片都不是。
非MU-MIMO的wifi工作就类似于CPU分配处理能力给网络设备,wifi只能轮流给每个客户端进行通信,所以客户端数量多了之后,肯定会出现响应延迟增大的情况,另外CPU的处理能力也要考虑进去,这就是我所知的影响带机量的因素,至于进行比较,那是不可能的,除非你自己去实测
谢谢楼上的各位精彩回复!
如果单纯从通过WAN口拨号进入电信光纤宽带,然后LAN口接电脑,关闭无线的情况下,9344是不是比7161更流畅稳定,带机量大一点?
另外的WAN口是千兆的,实际使用时会不会有&
我的恩山、我的无线
The best wifi forum is right here.
AP的话,只考虑瘦AP的情况
谢谢楼上的各位精彩回复!
如果单纯从通过WAN口拨号进入电信光纤宽带,然后LAN口接电脑,关闭无线的情况下,9344是不是比7161更流畅稳定,带机量大一点?
另外的WAN口是千兆的,实际使用时会不会有瓶颈?比如电信快带是1000兆的,此两款U能不能用足?
你都说了WAN拨号了,那就是路由了,那么就是我回的第一帖所说的那些
如果开启wifi但不连接,那么对cpu性能影响不大
流不流畅就请自行测试了&
我的恩山、我的无线
The best wifi forum is right here.
谢谢楼上的各位精彩回复!
如果单纯从通过WAN口拨号进入电信光纤宽带,然后LAN口接电脑,关闭无线的情 ...
你都说了WAN拨号了,那就是路由了,那么就是我回的第一帖所说的那些
如果开启wifi但不连接,那么对cpu性能影响不大
流不流畅就请自行测试了
我的恩山、我的无线
The best wifi forum is right here.
mark 了 H大的分析很到位
我的恩山、我的无线
The best wifi forum is right here.
呵呵我就笑笑
我的恩山、我的无线
The best wifi forum is right here.
#H 大对 CPU 性能的比较
我的恩山、我的无线
The best wifi forum is right here.
学习了,在这里个长知识呀
我的恩山、我的无线
The best wifi forum is right here.
H 大对 CPU 性能的比较 学习一下
我的恩山、我的无线
The best wifi forum is right here.
头像被屏蔽
提示: 作者被禁止或删除 内容自动屏蔽
我的恩山、我的无线
The best wifi forum is right here.
Powered by干货:新手如何选择合适的AR/VR开发工具?
原标题:干货:新手如何选择合适的AR/VR开发工具?
而近几年虚拟现实行业逐渐走进大众视野,VR在商业应用方面取得的成果有目共睹。VR技术在很短的时间里在全世界范围内迅猛发展,很多传统行业都有VR应用的进入,近年来许多人都选择进军内容VR开发行业,这将意味着你需要选择一个适合的创作工具,那么我们该怎么选择呢?
面对这个新兴的领域,你可能会困惑于应该从何入手,因为这三种类型的体验似乎有时会相互重叠,而我们难以理解三者的相似之处和差异之处。每个体验都需要一个稍微不同的开发堆栈和工具,以及需要针对用户使用的不同显示器进行设计。例如,为系留头显开发VR内容意味着你需要为用户创建一个完整的虚拟世界。
例如,如果你希望为Oculus开发VR内容,你可以从以下工具中进行选择:
Unity:用于开发跨平台2D和3D体验的引擎。开发者需要支付一定的费用才允许发行基于Unity的游戏或体验,但开发免费。
Unreal:一个完全基于C ++开发的引擎,可用于开发跨平台的体验。开发免费,但开发者在发行游戏或体验时需要支付一定的费用。
CryEngine:免费引擎,为开发者提供源代码访问。开发免费,但如果要获得额外的支持和培训,开发者需要支付一定的费用。
Lumberyard:来自亚马逊的免费引擎,据说是基于CryEngine。亚马逊免费发布源代码,开发免费。如果要使用Amazon Web Services,开发者需要支付一定的费用。
但如果你需要同时瞄准PlayStation VR,你的主要工具目前仅限于前三个:Unity,Unreal和CryEngine。
大多数iOS,tvOS,watchOS和MacOS开发者习惯于把XCode作为开发环境。对于AR,VR和MR的新晋开发者而言,确定使用哪种工具是关键。下面将和大家一起看看如何选择合适的开发工具。在着手开发之前,开发者需要确定自己瞄准的体验和受众。但在开始阐述不同的工具和环境之前,先让我们一起看看不同类型的体验,以及相关的术语。
1. 虚拟现实:一个由计算机生成的世界
大多数人都熟悉&虚拟现实&一词。所谓的VR是指计算机生成的,有时是模拟的,有时是近似真实的3D世界视图。虚拟世界可以是逼真的,想象的,或者是两者的结合。要进入虚拟现实,用户必须使用完全遮挡现实世界视场的屏幕,使眼睛沉浸在虚拟世界。这种屏幕可以是系留头显(如Oculus或Vive)或移动头显(如谷歌Cardboard或三星Gear VR)的形式,或者VR一体机。许多其他企业也在研发的无需缆线,手机或笔记本电脑的一体机设备。
360度视频是一种允许用户控制视角的沉浸式体验。有人将360度视频与虚拟现实混为一谈,因为用户都会沉浸在视频的360度视场中。当本文所指的&虚拟现实&不是指360度视频,而是由计算机生成的3D视图。
2. 增强现实:物理世界的补充
增强现实是指将计算机生成的内容叠加在真实世界之后所获得的视图,是一种通过附加信息或元数据(如声音,图形,GPS数据和文本显示)来增强世界的技术。一般来说,叠加的内容不能与现实世界交互,反之亦然。用户必须使用某种类型的屏幕才能查看这种世界。
想象一下,当你把手机摄像头对准建筑物,支持增强现实的应用就会显示建筑物中的名称,地址和经营业务。虽然用户不能与文字叠加层进行交互,但数据可以增强现实世界。目前最流行的AR屏幕是谷歌眼镜和安装了特定增强现实应用的智能手机。有许多科技公司正在开发增强现实眼镜,预计产品将在未来几年内开始进入市场。
跟增强现实类似,混合现实包含现实世界视图,但混合现实所叠加的虚拟世界和虚拟对象可以与现实世界相互作用。当前主要的混合现实头显是微软HoloLens。HoloLens可以在3D空间中映射真实世界,因此虚拟对象可以实际覆盖在现实世界的表面和对象之上。例如,混合现实允许用户将虚拟立方体放置在房间角落的桌子或椅子上。谷歌于几年前发布了Tango(以前称为Project Tango),并于最近发布了ARCore,而这似乎是他们对苹果ARKit的回应。混合现实支持运动追踪,光线估计和环境理解。ARCore现在可以支持运行着安卓N及更高版本的所有兼容手机,而SDK预览版支持谷歌Pixel,Pixel XL和三星Galaxy S8。Tango则支持谷歌Pixel,Pixel XL,以及华硕和联想的产品。
业界尚未对混合现实和增强现实之间的区别制定标准定义,两者之间的界限似乎在不断变化和模糊。苹果最新的ARKit框架允许虚拟对象与现实世界进行交互,这进一步混淆了增强现实和混合现实之间的定义。我们相信行业最终会为&增强现实&的用法制定标准,而其定义将包括可以与真实世界交互的对象,以及不能与现实世界相互作用的对象。就我看来,&增强现实&最终会包含&混合现实&的情景,行业将不再使用&混合现实&。因此在谈论AR和MR时,我们将主要集中在AR的工具选择。
3. 合适的工具
如前所述,VR和AR体验有时候需要不同的工具和开发环境。例如,如果希望使用Unity开发虚拟现实游戏,你需要指定目标头显(如HTC Vive,Oculus Rift,PSVR等等)。如果你希望开发增强现实应用程序,你可以选择在跨平台工具集上开发(如ReactVR),否则你将需要进一步定位iOS或安卓设备。如果你希望为HoloLens开发体验,你可以选择从Unity开始入手,然后再通过Visual Studio进行测试和部署应用程序。
不同体验的用户普及度尚未达到可以促使硬件和软件行业为工具、界面或编程语言制定统一标准的关键临界点。在那之前,创新公司在开发标准化工具集上拥有无限的机遇。目前来说,开发者仍然需要确定他们希望创建的现实(VR或AR),瞄准头显和平台类型,然后再了解所需的要求。
由于VR和AR的广阔市场前景,希望为一个或多个平台开发内容的你很有可能正在阅读这篇文章。统计数据表明,现在是采取行动的最好时机。市场分析机构预计,VR和AR到2020年的的预期经济影响将从58亿美元(低采用率)上升到205亿美元(高采用率)。2018年的VR软件市场规模估计为48亿美元。在明确的广阔的市场前景后,我们需要明确的问题是:如何为特定现实开发选择合适的工具。
在我认识的开发者中,没有太多愿意学习一个只能支持一款设备的新工具或应用。我们不想将时间和金钱投入到无法转换或转移到其他工具和平台的东西上。如果你像我一样,所有这三种体验都激励着你,你可能希望在未来一天中都能掌握它们全部。这意味着你应该选择可以尽可能支持更多平台,更多设备和更多体验的工具,或者你应该愿意学习多种不同的平台和工具集。
4. 选择VR开发工具
选择工具的第一步是观察市场并确定目标受众。我们应该考虑创建硬件和平台的公司实力,并评估其中的发展潜力。下面的图片显示了市场分析机构预测的2016年畅销VR头显。然后,你需要考虑应该开发什么类型的应用程序,以及所面向的平台和用户。你是否正在开发教育,游戏,商业,培训或营销领域的应用程序呢?大多数硬核玩家都在使用其中一款系留头显,因为这种设备能够提供更高的分辨率,更好的刷新率,以及更优秀的传感器和控制器。
表1:VR头显和开发工具
显然,Unreal和Unity主要5款主要的VR头显。如果你希望为三大系留VR头显开发内容,你可以选择
Unreal:支持Oculus, Steam, HTC Vive, Playstation VR, Mac, iOS/ARKit, 三星Gear VR, Google VR, Leap Motion和OSVR
Unity3D:支持Unreal支持的所有平台,外加Nintendo Wii, Hololens, Xbox One, Facebook Gameroom等等。
CryEngine:支持Oculus,Xbox One,Windows PC,Playstation 4和Linux PC。
5. 选择AR开发工具
增强现实(和混合现实)要求用户通过屏幕查看叠加了数字内容的现实世界。这意味着用户必须使用搭载摄像头的手机或平板电脑,或者说他们必须佩戴某种形式的屏幕。这种屏幕可以分为两种主要的形式:一种可供用户佩戴的头显;搭载摄像头的手机或平板电脑。由于摄像头,处理能力和AR显示器的问题,今天市场上的头显仍然相当笨重,体积巨大。但可以想象,设备的体积将会不断缩小,而我们最终有可能会穿戴一种眼镜形态的AR显示屏。就目前而言,AR头显市场中尚未出现主要的领先者,所以文本暂时不会纳入头显的分析。
表2:AR设备和开发工具
Unreal:需要ARToolkit和增强现实插件
CryEngine:需要Vuforia(iOS和安卓),或ARKit(iOS),或ARCore(安卓)
如你所见,如果你希望开发的体验能够支持尽可能多的设备,你的主要选项仍然是Unreal和Unity3D。然而,这并不意味着开发支持更多设备的体验将变得容易或无缝,而且在某些情况下,你必须专门针对目标设备开发应用程序,但我们认为至少你能够掌握一款可支持众多设备的工具。
如果你对安卓设备的AR应用开发最为感兴趣,你可以选择Unreal引擎或Unity3D,以及最新的ARCore。另一方面,如果你对iPhone和iPad的AR应用开发最感兴趣,ARKit毫无疑问将是你的第一选择。AR是一项令人兴奋的技术,特别是因为苹果最新iPhone X智能手机。开发者很快就可以创建支持面部识别的应用。想象一下,当你走进一个会议或酒店时,一个礼宾员会对你说:&欢迎回来。我们第一次见面是在两周前,对吧?你的房间已经准备好了,在7楼。你需要我为你带一本杂志吗?&这一切都是得益于面部识别和AR功能,以及因为AR眼镜的外形尺寸将不断缩小至可管理的大小。未来将至,但我们现在就可以开始进行开发。
如果你已经知道Objective-C和/或Swift,那你现在可以使用Xcode开发AR应用程序。如果你不知道Objective-C或Swift,Unity可以帮助你用更少的代码行来完成大量的工作。所以选择一个工具,然后开始着手开发,相信不久之后你可以发行属于自己的ARKit应用程序。
<font color="#-09<font color="#-05<font color="#-22<font color="#-18<font color="#-30<font color="#-20<font color="#-20<font color="#-20<font color="#-17<font color="#-08
早在去年7月份,为了让 VR/AR 应用开发人员更轻松地创建和更直观地看到 3D 虚拟对象,...
想知道在Unity中如何将游戏中角色对话的唇型与面部微表情达到次时代的水准吗?想知道...
近日,RLTY CHK工作室的联合创始人Nick Robinson发布了一篇文章,以媒体天师麦克卢汉...
VR设计师和开发者们开始着手如何让VR环境及体验更加有趣、逼真。以下是一些关于如何为room...
笔者在为《幻想装置》和《工作模拟》制作出混合现实的预告片以后,研究了更深层次的VR...EasyAR 初学者入门指南(4)---从零构建云识别应用
云识别是AR功能组成重要的一部分,EasyAR对云识别的支持也是相当完善的。这一篇主要讲解如何用unity+EasyAR 构建AR云识别应用。
Step 1:项目框架
我们新建一个unity项目,命名为"ARCloud",将"EasyAR_SDK_2.0.0_Basic"
unitypackage 导入到unity中,效果如图:
删除原有的Main Camera,将"EasyAR_ImageTracker-1_Cloud"组件拖到面板中
对于"EasyAR_ImageTracker-1_Cloud"与普通的"EasyAR_Startup"
的区别就是在于"CloudRecognizer",是我们进行云识别的关键,我们后面会修改Cloud 的脚本文件
我们在unity新建一个文件夹,命名为"StreamingAssets",里面存放我们的云识别的识别图。在这次的演示中,我准备了5张图片(纹理较为丰富)来进行测试。
Step 2:官网设置
我们到官网首先为我们的应用创建Key
填好我们的应用名
确定完成之后,可以看见我们申请到的Key
接着我们开通云识别功能,云识别对于我们的开发者免费试用14天,当然购买最好。我们先点击试用一下
然后填写我们的图库名称,点击立即试用
刚建好图库后,因为状态为“开通中”,需稍等片刻,
等到状态变为"使用中"时,我们对我们新建好的图库进行管理,上传识别图
我们上传识别图,上传第一张识别图我们详细讲解,后面以此论推。进入图库后,我们上传图片,会弹出:
名称:与我们unity项目中的识别图名称对应
宽度:规定以cm为单位填入,填写的大小将影响我们的模型大小
Meta,是一个txt文件,且在2M内,主要是描述对识别图的说明,可以随便写,也可以不上传。
我们上传我们在unity项目中的那张"test" 图片,效果如图:
点击确定之后,即可完成
接下来是最重要的,我们观察到在这个图库上有"Key","Secret","访问地址"信息字段,这个和我们在前面申请到的key一样,需要在unity中填写:
Step 3:实现云识别
我们回到unity开发中,首先我们将第一次获取到的key值填入到"EasyAR_ImageTracker-1_Cloud" 中
结下来处理云识别代码,我们新建一个脚本"EasyCloudBehaviour",替换原来挂在"CloudRecognizer"z组件上的"CloudRecognizerBehaviour"脚本。
关于脚本内容,大家可以下下来研究研究:链接: https://pan.baidu.com/s/1i5oWsXv 密码: pvpc
最重要的时候到了,我们将在官网建立图库时申请的"Key","Secret","访问地址"的内容填写到这里(Server填写的是移动端SDK访问地址)
效果如图:
实现到这,我们上传到官网的那些识别图就可以识别了,如果要实现扫描识别图展现AR模型的话,我们还需运用到ImageTarget,关于ImageTarget 的配置属于EasyAR最基础的东西,在这里我只演示一张识别图。我们将一个ImageTarget组件拖到面板中去:
然后修改挂在ImageTarget上面的脚本,关于脚本内容,不懂的可以看看之前的文章:
准备好后,我们填写上传到官网的识别图信息(即那五张识别图),在这里,以test这种识别图为例:
然后在ImageTarget 下面创建要显示的模型即可。其他的识别图操作类似
到这里我们就实现了一个AR云识别的案例了。
Step 4;开发技巧
在我们实际开发中,没有必要从0搭建一个云识别应用,常常在EasyAR Samples的基础上进行开发,比如我们下载EasyAR 2.0的unity案例
打开"HelloARCloud"项目
进入unity之后,打开"HelloARCloud" 场景
将官网申请到的Key 与 建立的图库的"Key","Secret","访问地址"
填入到相应位置即可
一切设置好后,你就可以自行开发了。这种方式也是我们所推崇的,会大大提高我们的开发效率。
EasyAR---从零构建云识别应用
云识别概念理解(私人理解)
(快速入门9)制作云识别内容
EasyAR识别框程序
EasyAR1.3.1入门
EasyAR从入门到精通开发系列教程(1)---搭建开发环境
关于HiAR SDK的云识别注意事项
从零开始搭建安卓EasyAr环境(一)
运行SDK实例
EasyAR开发教程第二弹--AR 视频的识别与播放
easyar 识别成功后,怎么回调java层代码
没有更多推荐了,}

我要回帖

更多关于 吉他初学者看什么书比较好 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信