苹果手机有没有扫描识别物体物体进行安全检查的功能

屏幕正常,声音正常,联网正常,触摸囸常,耳机正常,玩游戏不死机重启,这些都没事就是没问题

本回答被提问者和网友采纳

你对这个回答的评价是

方法一:硬件管家可以。检测步骤如下:

3、点击屏幕修复手机会自动检测。检测过程中屏幕会以各种纯色进行闪屏如果发现有坏点(和主体颜色不同的像素点),點击修复即可如果不能修复,则是硬件损坏需要到售后维修。

方法二:拿到手机后主要检查以下功能:屏幕、声音、联网、触摸、耳機、玩游戏不死机重启、这些都功能没事就是没问题

方法三:1、将设备用数据线连接到电脑,启动PP装机助手

2、等待设备成功识别后,點击界面上的“硬件检测”并按要求打开手机上的PP助手。

3、打开设备上的PP助手后会自动跳转自硬件检测功能,并开始检测此时请不偠断开设备连接。

4、检测完成后设备上的PP助手和电脑上的PP装机助手都会显示检测结果。

5、 如果需要手动检测更多硬件问题可以点击手機上的PP助手的“辅助检测”功能,快速检测

方法四:1、解锁进入手机桌面。

2、点击桌面上的图标乐乐达进入APP。

3、点击下方菜单栏【检測】进入检测页面在此页面点击【一键检测】可以查看WiFi,听筒摄像头,闪光灯陀螺仪,扬声器GPS,震动感应器等模块是否损坏至於多点触控,距离感应可以通过点击下方的按钮进行检测

你对这个回答的评价是?

}

如何在视频内检测出特定物体 [問题点数:80分,结帖人wangyaninglm]

例如从这张图片了利用hough直线检测提取白条的轮廓,

如何能加深白条的轮廓,消除旁边的影响求大神指教。

类姒是利用opencv的hough直线检测测出该目标于当前的位置的方向。

没有人对于这基于opencv平台开发比较精通的吗

匿名用户不能发表回复!
}

原标题:华人企业首发300线激光雷達LIDAR识别物体进入新阶段

2017年,激光雷达出尽风头各种技术路线和初创企业让人眼花缭乱。11月8日激光雷达头牌厂商Velodyne推出128线激光雷达VLS-128,其探测距离相较于其64线激光雷达提升一倍而点云密度提高了四倍,体积却减少了70%

刚过一个月的12月12日,在硅谷的华人初创企业Innovusion宣布推出300线噭光雷达在LIDAR探测清晰度和数据融合方面取得重大进展。

华人初创公司首发300线激光雷达

Innovusion公司CEO一直和佐思有密切的联系我们也得知该团队茬创业做传感器。Innovusion团队蛰伏一年后拿出的作品着实让人惊讶。

鲍君威介绍该款激光雷达为混合固态LIDAR,探测距离可大于150米分辨率在300线鉯上,尺寸小于100???(长度和普通智能手机相当)高分辨率带来的益处是,可以对车辆前面的行人及障碍物返回更多扫描识别物体點能够更准确识别人和物体。

Innovusion激光雷达纵向分辨率达300线可称为“图像级”的激光雷达。从2018年上半年开始Innovusion将启动开发者合作项目可提供激光雷达B Sample以及integration kits,支持合作伙伴部署测试该雷达量产时成本可降低至1000美元。

某32线LIDAR的扫描识别物体效果图

(颜色代表反射值场景为斯坦鍢校园)

Innovusion还实现了一项非常重要的功能,就是激光雷达点云与相机视频数据在硬件层次的融合大大减少了传感器数据融合的软件处理时間。

融合前:摄像头彩色图像截图

融合后:三维彩色点云数据(激光雷达点云及摄像头数据融合视图)

融合后:三维彩色点云数据(上图拉近到远处的建筑物)

创始人曾就职于Velodyne和百度

Innovusion于2016年在美国硅?成立公司团队多名成员是激光雷达及精密光学设备领域有丰富经验的?程師,平均业界工作经历近20年一半以上成员有名校博士学位。

Innovusion CEO鲍君威本科毕业于北京大学物理系在加州大学柏克莱分校获电子工程硕士忣博士学位。在博士期间和两位师兄共同开发了可称之为“显微光学雷达”的Scatterometry 技术创立Timbre Technologies, : A

这些论文都是对激光雷达物体识别的研究,激光雷达物体识别最大的优点是可以完全排除光线的干扰无论白天还是黑夜,无论是树影斑驳的林荫道还是光线急剧变化的隧道出口,都沒有问题其次,激光雷达可以轻易获得深度信息而对摄像头系统来说这非常困难。第三激光雷达的有效距离远在摄像头之上,更远嘚有效距离等于加大了安全冗余最后,激光雷达也可以识别颜色和车道线

实际上激光雷达与摄像头没有本质区别,其最大区别除了激咣雷达是主动发射激光是主动传感器外,只是光电接收二极管不同摄像头可以做到的,激光雷达都能够做到只是目前激光雷达的点雲密集度还不能和300万像素级摄像头相比。本次Innovusion 300线激光雷达的发布让激光雷达成为“高清晰度”LIDAR,使得激光雷达对物体的识别能力进入全噺的阶段

对于固态激光雷达来说,绝大部分固态激光雷达都是提供3D图像的与其说是激光雷达,不如说是3D图像传感器更为合适

Driving(2016年11月),用摄像头和激光雷达数据融合做物体探测与识别苹果认为这种做法没有提升,反而带来N多麻烦因为摄像头需要时间同步和与激光雷达做联合空间标定,摄像头有效距离有限性能与距离关联密切。两者在中远距离上难以融合在近距离效果会略好。

像摄像头用像素Pixel這个词一样激光雷达是3D的,因此有Voxel体素这个词Pixel是二维电脑图像的最小单位,Voxel则是三维数据在三维空间分割上的最小单位很早就应用於三维成像、医学影像(比如CT)等领域。对物体识别是机器理解人类社会环境的基本能力人类文明主要是用文字和语言承载的,这是一種完全社会化的概念因此不得不采用人类的学习方式,也就是深度学习激光雷达可以用回波宽度或反射强度信息轻易识别某一类物体,如车道线草地,建筑物道路,树木并且是物理识别,而不是摄像头那样的根据数学概率算法得出的识别物理识别的准确度远高於概率推算。

但是需要更具体识别的话激光雷达只能识别出是行人,但到底是成年人、老人、小孩还是婴儿就无能为力了再比如路边嘚交通标识,激光雷达只能知道是一块金属牌或塑料牌但是是牌子什么内容就不知道了,深度学习就可以派上用场了

深度学习通俗的悝解就像人类训练动物,比如教你们家汪星人跟你握手(爪)汪星人做对了,就给一点食物奖励或者抚摸奖励这就是一种强化学习的機制,汪星人没做对就会挨批。这就像神经网络的训练过程识别正确就增加这部分的权重值(食物奖励),识别错误就减少权重值(挨批)如此不断地强化,最终你一伸手汪星人也伸爪跟你握手。

上图为苹果论文里的Voxel Net架构目标检测与识别领域早期为DPM。2013年11月目标檢测领域公认的大神RossGirshick推出R-CNN,2015年4月进化为Fast R-CNN2015年6月进化为Faster R-CNN,成为今日目标检测与识别领域公认最好的方法也是可以完全端对端地实现。激光雷达的目标检测与识别自然也是要用Faster

Faster R-CNN 从2015年底至今已经有接近两年了但依旧还是Object Detection领域的主流框架之一,虽然推出了后续 R-FCNMask R-CNN 等改进框架,但基本结构变化不大同时不乏有SSD,YOLO等骨骼清奇的新作但精度上依然以Faster R-CNN为最好。

从RCNN到fastRCNN再到本文的faster RCNN,目标检测的四个基本步骤(候选区域苼成、特征提取、分类、位置精修)终于被统一到一个深度网络框架之内所有计算没有重复,完全在GPU中完成大大提高了运行速度。

Search方法不过RPN只能针对密集化的具备张量结构的数据,而激光雷达的云点是稀疏的因此激光雷达深度学习识别物体的关键就是如何把点云数據转换成具备张量结构的密集的视频或图像数据。

苹果就提出了一种叫VFE(Voxel FeatureEncoding)的方案如上图所示。首先将点云数据转换为体素数据基本仩点云的三维数据就是体素的三维数据。根据体素所在的位置对点(点云)进行分组把这些分组数据全部一层层堆叠起来,然后通过FCN形荿有4(速度向量、X、Y、Z)张量的数据结构所谓的VFE,感觉类似于CNN的卷积既然是CNN,就少不了池化苹果叫随机取样,就是下取样

接下来看FCN,FCN将传统CNN中的全连接层转化成卷积层对应CNN网络FCN把最后三层全连接层转换成为三层卷积层。在传统的CNN结构中前5层是卷积层,第6层和第7層分别是一个长度为4096的一维向量第8层是长度为1000的一维向量,分别对应1000个不同类别的概率FCN将这3层表示为卷积层,卷积核的大小 (通道数寬,高) 分别为()、()、()看上去数字上并没有什么差别,但是卷积跟全连接是不一样的概念和计算过程使用的是之前CNN已经训练好的权值和偏置,但是不一样的在于权值和偏置是有自己的范围属于自己的一个卷积核。因此FCN网络中所有的层都是卷积层故称为全卷积网络。

经过哆次卷积和pooling以后得到的图像越来越小,分辨率越来越低其中图像到 H/32?W/32 的时候图片是最小的一层时,所产生图叫做heatmap热图热图就是我们朂重要的高维特征图。

得到高维特征的heatmap之后就是最重要的一步也是最后的一步对原图像进行upsampling把图像进行放大、放大、放大,到原图像的夶小这就可以看做RPN了。

上图是百度的云点转换FCN步骤图

上图为苹果的RPN架构图。可以看出与百度相差无几

最后不能免俗,苹果也得上KITTI上測试一番苹果也忘不了打击一下百度,其中22号方案是百度早期的方案效果确实不太好;5号方案就是百度和清华合作的方案,BV代表鸟瞰圖FV代表前视图,RGB代表摄像头HC-baseline的方案也是清华和百度联合提出的。在鸟瞰检测方面苹果与百度几乎没太多差别,在3D检测方面苹果领先不少。

苹果使用一个1.7GHz的CPU和顶级显卡Titan X来运行上述算法Voxel输入特征计算费时大约5毫秒,特征学习网络费时大约20毫秒卷积中间层费时170毫秒,RPN網络费时30毫秒合计225毫秒,但是苹果没有说这是一帧的推理(Inference)时间还是30帧如果是一帧的话那就离实用还差很远,每帧25毫秒还比较接近實用

这也说明,实现完全自动驾驶还有一大段路要走无论是激光雷达,还是视觉技术都还有很大的提升空间。 本文截稿之前得知噭光雷达企业Ouster刚完成2700万美元A轮融资,可见LIDAR市场之热度据悉,Innovusion现在也启动了A轮融资

}

我要回帖

更多关于 三维扫描 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信