人工智能,机器学习和深度学习之间的区别和联系

人工智能、机器学习与深度学习的联系与区别
时常被学生问到的一个问题——人工智能与机器学习到底是什么?思来想去,不知道该从何作答才能让人茅塞顿开,故此写下该博文带领大家一探究竟。
说到人工智能与机器学习,这里得再引入一个“深度学习”的概念。从时间上看,人工智能提出的最早,其次是机器学习,最后是深度学习;从范畴上看,人工智能涵盖了机器学习,而深度学习只是机器学习中的一个分支。具体可见下图:
那么这三者具体又是什么呢?
人工智能:机器模拟人类的科学
美国麻省理工学院温斯顿教授曾经说过:“人工智能就是研究如何利用计算机代替只有人类才能做的智能工作。”
即人工智能本质是研究人类智能活动的规律,构造具有一定人类智能的人工系统,从而应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。
不知道大家有没有试着用苹果手机的“Siri功能”,它就是人工智能应用的一个典型代表。首先你得说一句话作为语音输入,然后苹果后台会把你说的话转译成文本,接下来系统会根据输入的文本进行分词、实体识别、依存句法等语言分析,最后输出一个有效的结果反馈给你。
这便是利用机器理解自然语言的典型案例,其他的人工智能领域还包括:指纹识别、人脸识别、智能搜索、专家系统等。
机器学习:实现人工智能的一种方法
简单来说,机器学习就是使用算法分析数据,从而记录并推断结果。
图像识别一直是机器学习应用的最佳领域之一。通过搜集大量的人脸和非人脸图像(输入层),再依据一种或多种算法(计算层),最终让机器识别并存储这些图像(存储层)。那么当换一批图像输入之后,机器能够根据之前识别并存储的图像信息,将新图像中匹配度高的图像归结为一类,匹配度低的图像重新经过模型训练分组。
这便是机器学习的思想,其主要目的是利用数据(通过廉价劳动力采集获得)去替换业务专家(高额的人力成本)。
​​
深度学习:实现机器学习的一种技术
快进到今天,我们看到的是一个夺人眼球的技术——深度学习。而在深度学习的模型中,受宠爱最多的就是被用在大规模图像识别任务中的卷积神经网络(Convolutional&Neural&Nets,CNN),简称ConvNets。
深度学习强调的是你使用的模型(例如深度卷积多层神经网络),模型中的参数通过从数据中学习获得。然而,深度学习也带来了一些其他需要考虑的问题。因为你面对的是一个高维的模型(即庞大的网络),所以你需要大量的数据(大数据)和强大的运算能力(图形处理器,GPU)才能优化这个模型。卷积被广泛用于深度学习(尤其是计算机视觉应用中),而且它的架构往往都是非浅层的。
对于深度学习,还存在很多没有解决的问题。既没有完整的关于深度学习有效性的理论,也没有任何能超越机器学习实战经验的指南书。另外,深度学习不是万能的,它有足够的理由能日益流行,但始终无法接管整个世界。不过,只要你不断增加你的深度学习技能,你的饭碗无忧。但也不要对深度框架过于崇拜,不要害怕对这些框架进行裁剪和调整,以得到和你的学习算法能协同工作的软件框架。未来的Linux内核也许会在Caffe(一个非常流行的深度学习框架)上运行,然而伟大的产品总是需要伟大的愿景、领域的专业知识、市场的开发和最重要的:人类的创造力。
参考文献:
《Deep Learning vs Machine Learning vs
Patter Recognition》Tomasz Malisiewicz
《What’s the Difference Between Artificial Intelligence, Machine
Learning, and Deep Learning》 Michael Copeland
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。人工智能和机器学习之间到底有哪些区别? | 精选
用微信扫描二维码分享至好友和朋友圈
用微信扫描二维码分享至好友和朋友圈
    本文系网易智能工作室出品,精选第116期,聚焦AI,读懂下一个大时代!  热词的确能在网络上获得很多关注,尽管搜索引擎优化了关键词可能会帮助人们在网络上找到他们想要的东西,但同时会在搜索中添加一些无用的东西和垃圾。  随着像3D打印这样的术语在工业物联网引起了积极的反应,热词的发展便一发不可收拾,再加上人工智能、机器学习、神经网络和深度学习,让人分不清到底谁是谁。到底什么是人工智能?  人工智能通常被定义为一种科学,即让拥有智力水平的计算机来完成人类做的事情,目前,人工智能已经在有限或操作较为简化的领域取得了一些成功。  首先,人工智能的种类有不同:分为弱人工智能和强人工智能,弱人工智能表现得像是机器人或生产线在独立行动,不过它实际上受到人类监督的编程,这意味着人类对弱人工智能进行了编程输出或给定输入的操作。  而强人工智能是一种基于给定目标和输入数据而可能改变实际输出的系统,它是指一种可以做到一些自己编程外事情的程序,强人工智能能够发现一种编程外的模式,并且决定采用这种更有效的方法来完成既定目标。  例如,当人工智能程序接到指令,需要在电视游戏Breakout中打破人类纪录时,它就开始学习如何在游戏中获得更高的分数,然后在短短2.5小时内就能赢过人类。  研究人员随后让人工智能程序运行。令他们惊讶的是,该程序制定了一种不在软件编程范围内的战略。它会把焦点集中在墙上的一个点,只在这个点进行击球,这样球就会落在墙后。这将使程序的工作最小化,因为计算机不需要再移动球拍,而与此同时,分数也在增加。这样做也减少了错过球和输掉比赛的可能。  请记住,电脑是看不到球拍、球或彩虹条纹的墙壁的。它“看到”的只是一串数字。然而计算机知道它所控制的变量,也知道它如何能够根据掌控与其他数字之间变量来增加分数。  博世的一位产品开发人员Matteo Bosch表示:“在人工智能领域有很多不同的技术:其中一些是真实存在和起作用的,还有一些仍不成熟,剩下的只是人们口口相传的热词而已。根据我的经验,在现实的制造业中,我从没听过任何人使用人工智能进行操作。相反,人工智能应用更有可能的情况是,研发中心正在研究和测试某些算法。一些像PLC、驱动器、电动机的工业部件已经包含了一些人工智能范围内的神经网络,其中这些神经网络典型的应用程序正在为工业提供更多的能效或更快的反应时间。”  目前,人工智能已经归为一个笼统的术语,其可能意味着包括机器学习在内很多方面的含义。然而,往往造成人们对其困惑的原因是,一些人将人工智能与独立思考联系在一起。从定义上看,他们似乎是正确的,因为机器视觉应用程序可以选取一部分内容并将其设置为特定的方向,这种行为的确属于人类的行为,并需要一定程度的智力。但令人困惑的是这个过程可能不需要太多的智力,这似乎又否定了他们的看法,而该定义相反又确实符合人工智能的定义。  神经网络和大数据神经网络:一个模仿人类大脑的计算机系统。  大数据:本质上是一套大型的数据集或是一组数据,用于精确地使用人工智能功能。  随着事情变得越来越复杂——从人工智能到机器学习,又从机器学习再到深度学习——人类所拥有的数据越多,这些系统就能更好地学习和运转。  机器学习有时与神经网络相关联。与人脑的运作方式类似,神经网络在节点和节点层之间有许多连接。训练系统算法时可以使用神经网络,当输入以数据的形式进入系统时,系统就会做出搜索、学习、决定等一系列动作来确定哪种算法才是最佳的解决方式。通过使用大量的数据(通常称为大数据),算法和网络可以学习如何实现目标和改进其过程。这种广泛的联系被称为深度学习。  深度学习:深度学习(也称为深度结构化学习、分层学习或深度机器学习)是对人工神经网络和包含不止一个隐藏层的相关机器学习算法的研究。  博斯的高级研究科学家Samarjit Das说:“深度学习是一种特殊的机器学习算法——它是模拟大脑连接的多层次神经网络,这些类型的连接似乎比我们现有的系统的连接更高效。  现在,我们必须根据人类的经验来定义机器学习的参数。当我们看到苹果和橘子的图像时,我们需要手动定义它们的特征,以便机器学习系统就能识别出这两种水果的不同特征。深度学习则是机器学习的下一个层次,因为它可以自己区分这些不同。通过向深度学习系统展示苹果和橙子的样本图像,它不必基于人类教它的知识,而是创建自己的规则,意识到颜色和几何是区分两者的关键特征。  机器学习:一种可以包括但不限于神经网络和深度学习的人工智能,一般而言,它是指计算机输出或指做一些它编程外的事情。  【英文来源:Machine Design 编译:网易见外智能编译平台 审校:谭嘉琦】
特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布 平台。
阅读下一篇
网易通行证/邮箱用户可以直接登录:09:53:46 UTC
新智元编译
来源:insideBIGDATA 译者:张易
【新智元导读】对于希望从战略层面洞察人工智能这一领域的企业领袖来说,insideBIGDATA Guide to Deep Learning & Artificial Intelligence是个有用的新资源。它解释了AI、机器学习以及深度学习的区别,审视了AI和HPC的交集,介绍了各个领域中AI和深度学习的精彩应用案例,展示了GPU是如何有效地和AI技术结合在一起的。
这是AI的时代。基于AI的产品大量涌入市场,许多著名厂商已经在产品中整合了AI解决方案:通用电气推行了AI业务Predix,IBM广告里Watson和Bob Dylan相谈甚欢,CRM巨人Saleforce则发布了智能系统Einstein,用于制订产品和销售策略。
这些表象的背后是日积月累的努力和数十亿美元的投资。AI大潮席卷了制造业、交通、消费金融、精细农业、医疗医药以及包括公共事业的其他许多领域。
为什么是现在?
一个最大的问题也许是:为什么是现在?AI的进步有两个关键因素:1.数据的规模;2.计算能力。
目前AI进入上升期的主要原因之一是较便宜的计算资源的兴起。像人工神经网络这样的机器学习技术在1980年代和1990年代早期就被广泛使用过,但由于种种原因在90年代后期逐渐淡出人们的视线。最近,神经网络才再次复兴。当初失宠是因为神经网络是非常耗费计算资源的算法。今天,计算机已经变得够快,可以运行大规模的神经网络。从2006年起,神经网络已经用于深度学习方法的实现。现在,随着GPU的使用(GPU原本是10年前设计用来进行游戏的),神经网络开发人员可以用计算机运行深度学习。云和GPU也日益紧密结合,AWS、Azure和Google云目前都为GPU提供了接口。
AI技术包括:神经网络、LSTM、贝叶斯置信网络等等。神经网络的工作可以分为两大类:训练和推理。通常,训练会耗费更多的计算性能和动力,而推理(之前称为记分)则相反。一般来说,新的训练计算是英伟达GPU的天下,而老的训练计算则由传统的CPU执行。推理计算则由Intel CPU、Xilinx/Altera FPGA、英伟达 GPU以及像Google TPU这样的ASIC、甚至DSP分而治之。
AI、机器学习和深度学习的区别
AI、机器学习和深度学习的区别,可以通过下图直观的表示。首先是AI,它涵盖的范围最广,然后是后来兴起的机器学习——它可以看作是AI的子集,最后是深度学习——作为机器学习的子集,它推动了今日AI的勃兴。
自从1956年一批计算机科学家在Dartmouth Conferences上提出AI的概念以来,它一直在学术研究实验室里缓慢进化。之后很长一段时间内,AI一会儿被人当作包罗万象的圣杯捧上天,一会儿被当作学术疯狂想象力的代表踩在脚下。直到2012年以前都是如此。
在过去几年,尤其是从2015年开始,AI的潜能终于开始爆发。这和GPU的使用密切相关,并行处理变得前所未有的迅速、低成本且更有效。极度增长的存储能力和猛增的数据(包括图像、视频、文本、交易、地理数据等等)也是AI爆发的原因。
顺应这一轨迹,深度学习实现了许多机器学习的应用,并扩展了AI的整体领域。深度学习使得各种机器辅助的梦想都变得真实起来。无人驾驶汽车,更好更有前瞻性的医疗,甚至更聪明的电影推荐,如今都来到人们面前,至少是不再遥远。AI成为了现在和未来的基石。
AI和HPC的交集
AI和HPC的交集表明,对于真实世界的应用来说,认知可以以一种实际的方法进行计算。它代表了逻辑处理与数值密集计算的平衡。这是一个商业、工业、政府和学术研究活动密集的领域。AI和深度学习算法与HPC数字密集型统计分析和操作的结合深深地影响了IT行业,影响到人类生活的各个方面。
最近,百度首席科学家AndrewNg提出了一个问题:“为什么是HPC加快了机器学习和深度学习研究的进展?”他表示,今日AI取得的很多进步是由实验等实际工作推动的。他同时指出,HPC使得研究人员和开发人员工作更加高效,他们得以使用熟悉的“想法?实验(代码)?结果(测试)“这一循环更快地迭代实验。以前花费几个星期、几个月甚至几年来完成的实验,现在可以减少到以天计算。
关于AI和HPC的结合,我们有如下观察:
o计算机科学和数据科学对未来的HPC都很关键。高性能计算的标准。特别是,AI是通往百亿亿次计算之路(一秒内浮点运算达百亿亿次的计算系统)。在SC16超算大赛上,出现了很多AI应用于医疗、天气、天文等各领域来解决传统的HPC问题的案例。同时我们也看到了深度学习帮助HPC解决问题的案例。
o深度学习对超级计算来说既是挑战也是机遇。实际上,未来的超级计算机应该被设计为既用于计算机科学也用于数据科学。超级计算机将会整合计算机科学和AI,而AI超级计算也是通向百亿亿次计算的最佳路径。
o一旦你训练了一个精准的模型,下一步就是部署,或者找到办法来服务以用户为基础的大型神经网络。许多人认为HPC可以将AI的益处大规模带给用户。
o一个关于语音识别的AI应用的有趣统计数字表明,数据量增长10倍,相应的错误率会降低40%。HPC允许训练模型在更庞大的数据集上训练,因此是推动AI进步的关键因素。
不久以前,HPC还是Cray和IBM这样大公司的专属品。但2016年早些时候,在2016年NVIDIA GPUTechnology Conference上,英伟达CEO黄仁勋向大家介绍了DGX-1,称它是世界上第一台“盒子里的超级计算机”,价值大约13万美元。这一发布对于AI领域是石破天惊的。
最后,企业能否成功利用新兴技术,归根到底可能取决于是否能找到足够的技术工人。许多大公司在想办法找到合适的人才,以求在AI驱动的经济中立于不败之地。也许一些有机器学习背景的人才没有HPC背景。解决方法无非是要么坐下来自学,要么去和掌握相关技术的人合作。
下面我们集中介绍各个领域中AI和深度学习的精彩应用案例,来展示GPU是如何有效地和AI技术结合在一起的。
AI在各领域的应用案例
AI在医疗领域的应用:
oAI平台加速癌症研究——为了加速推进和癌症的斗争,CancerMoonshot联合了Department of
Energy (DOE)、National Cancer Institute (NCI) 以及Oak Ridge、Lawrence Livermore、Argonne和Los Alamos National Laboratories的其他研究者。英伟达和上述实验室合作,帮助他们加速建设一个称为CANDLE的AI框架,作为通用的发现平台,目标是在癌症研究产出方面取得10倍的年增长。这一框架将使得科学家和研究者可以使用深度学习以及其他计算机科学的方法来攻克癌症研究中的一些难题。在这方面英伟达的超级计算机DGX SATURNV将会发生效用。
o使用AI加速药物发现——新的药物上市一般要花费12到14年,耗资26亿美元。BenevolentAI使用GPU深度学习方法使得新药物的面世更迅速,成本也更低。他们把利用大量研究数据识别模式的过程自动化了,使科学家能够比以往的研究者更快地提出假设并得出结论。例如,使用英伟达DGX-1 AI超级计算机,2种可能适用于阿兹海默症的药物在一个月之内就被识别出来。
oAI推进了乳腺癌的防治——乳腺癌是全球女性致死率第二高的癌症。基因测试可以帮助医生判断癌症进程,以便采取适当的治疗方法。但这一测试价格昂贵,且对组织有破坏性,同时要耗费10到14天。Case Western Reserve采用GPU深度学习来对癌症风险进行自动评测,成本是基因测试的20分之1。
oAI预测和预防疾病——GPU深度学习能在疾病诊断前就帮助医生识别高风险病人。Mount Sinai 的Icahn School of Medicine基于英伟达GPU和CUDA程序模型建造了一个称为Deep Patient的AI工具。Deep Patient可以分析病人的病例,最快在发病1年前就可以预测80种疾病的发生。
AI辅助天气预报:
天气预报能够挽救生命,保护财产,而预测的生成需要处理海量数据。Colorful Clouds使用AI和GPU计算来快速处理、预报天气和空气质量,并根据个人的位置提供高精准度的实时预测。从CPU到GPU,处理数据的速度提升了30到50倍。
AI加速网络防护:
我们的日常生活、经济活力和国家安全都有赖于一个稳定、安全、有弹性的网络环境。对IT系统的攻击正变得日益复杂且持续,导致了信息、财产的损失和基础服务的瘫痪。Accenture网络安全实验室使用英伟达GPU、CUDA库和机器学习来加速分析和产生每天200m到300m次的报警,使得分析员可以及时采取措施。
使用AI保护我们的星球:
美国的政府组织Asteroid Grand Challenge在努力识别威胁到人类生存的小行星。这支NASA Frontier Development Lab的团队通过使用GPU强大的AI和深度学习来识别和描述威胁,应对了这一挑战。他们开发使用的Deflector Selector在确定哪种技术能够成功使小行星轨道发生偏转方面实现了98%的成功率。
AI正在改变整个技术世界,但它并不是一个全新事物。它已经存在了几十年,只是由于数据的激增和存储、计算和分析技术方面的投资,在最近取得了长足进展。这种进步主要归功于学习算法在越来越大的数据量中识别模式的能力。
在本指南中,我们从人工智能如何被技术进步所塑造及如何应用的高度来看待它,同时解释了AI、机器学习以及深度学习的区别,并审视了AI和HPC的交集。
我们在insideHPC/insideBIGDATA AI/Deep Learning Survey 2016中还介绍了最近一次insideBIGDATA的调查结果,以了解这些新技术被接受的情况。结果表明,各种组织机构,尤其是企业,在使用AI解决现实问题上取得了重大进展。最后,我们检视了AI在不同领域效用的典型案例。我们希望努力凸显出人工智能影响人们生活的真实案例,以及这样的事实:较早采用AI技术的人已经在他们各自的领域取得了成功,且相对来说付出的成本不高。这将鼓励更多的组织机构尝试AI和深度学习来解决问题。
乍看起来,在全球商业环境中,一些公司可能被认为在人工智能中“投资不足”。也许这需要一个更为长期的投资策略,因为在使AI解决方案更有效率之前,你有许多工作要做。可能有些公司仍在学习如何在技术上进行更长期的投资,而不是短期投资。
AI是一个非常了不起的工具,能够帮助人们创造出激动人心的应用程序,并创造新的方式来服务客户,治疗疾病,抵御安全威胁,等等等等。AI领域的快速进展将继续为企业和科学研究提供越来越多的机会,产生巨大影响。许多人认为,AI在真实世界能发挥的效力不可限量。微软的Chief Envisioning Officer Dave Coplin在2016年伦敦AI会议上表示:“这项技术将改变我们与技术的关系。它将改变我们相互联系的方式。我认为,它甚至会让我们重新认识它对人类的意义。显然,未来会更好。
原文地址:}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信