机器学习,神经网络在控制科学中的前景和应用大吗?为什么

【图文】第18讲 人工神经网络与机器学习_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
第18讲 人工神经网络与机器学习
上传于||文档简介
&&计​算​机​科​学​与​技​术​概​论​ ​讲​义
大小:248.00KB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢AI、机器学习和深度学习之间的区别是什么?_网易科技
AI、机器学习和深度学习之间的区别是什么?
用微信扫码二维码
分享至好友和朋友圈
(原标题:人工智能、机器学习和深度学习之间的区别和联系)
有人说,人工智能(AI)是未来,人工智能是科幻,人工智能也是我们日常生活中的一部分。这些评价可以说都是正确的,就看你指的是哪一种人工智能。今年早些时候,Google DeepMind的AlphaGo打败了韩国的围棋大师李世乭九段。在媒体描述DeepMind胜利的时候,将人工智能(AI)、机器学习(machine learning)和深度学习(deep learning)都用上了。这三者在AlphaGo击败李世乭的过程中都起了作用,但它们说的并不是一回事。今天我们就用最简单的方法——同心圆,可视化地展现出它们三者的关系和应用。如上图,人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习,稍晚一点;最内侧,是深度学习,当今人工智能大爆炸的核心驱动。五十年代,人工智能曾一度被极为看好。之后,人工智能的一些较小的子集发展了起来。先是机器学习,然后是深度学习。深度学习又是机器学习的子集。深度学习造成了前所未有的巨大的影响。|&从概念的提出到走向繁荣1956年,几个计算机科学家相聚在达特茅斯会议(Dartmouth Conferences),提出了“人工智能”的概念。其后,人工智能就一直萦绕于人们的脑海之中,并在科研实验室中慢慢孵化。之后的几十年,人工智能一直在两极反转,或被称作人类文明耀眼未来的预言;或者被当成技术疯子的狂想扔到垃圾堆里。坦白说,直到2012年之前,这两种声音还在同时存在。过去几年,尤其是2015年以来,人工智能开始大爆发。很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、更有效。当然,无限拓展的存储能力和骤然爆发的数据洪流(大数据)的组合拳,也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。让我们慢慢梳理一下计算机科学家们是如何将人工智能从最早的一点点苗头,发展到能够支撑那些每天被数亿用户使用的应用的。|&人工智能(Artificial Intelligence)——为机器赋予人的智能早在1956年夏天那次会议,人工智能的先驱们就梦想着用当时刚刚出现的计算机来构造复杂的、拥有与人类智慧同样本质特性的机器。这就是我们现在所说的“强人工智能”(General AI)。这个无所不能的机器,它有着我们所有的感知(甚至比人更多),我们所有的理性,可以像我们一样思考。人们在电影里也总是看到这样的机器:友好的,像星球大战中的C-3PO;邪恶的,如终结者。强人工智能现在还只存在于电影和科幻小说中,原因不难理解,我们还没法实现它们,至少目前还不行。我们目前能实现的,一般被称为“弱人工智能”(Narrow AI)。弱人工智能是能够与人一样,甚至比人更好地执行特定任务的技术。例如,Pinterest上的图像分类;或者Facebook的人脸识别。这些是弱人工智能在实践中的例子。这些技术实现的是人类智能的一些具体的局部。但它们是如何实现的?这种智能是从何而来?这就带我们来到同心圆的里面一层,机器学习。|&机器学习—— 一种实现人工智能的方法机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。机器学习直接来源于早期的人工智能领域。传统算法包括决策树学习、推导逻辑规划、聚类、强化学习和贝叶斯网络等等。众所周知,我们还没有实现强人工智能。早期机器学习方法甚至都无法实现弱人工智能。机器学习最成功的应用领域是计算机视觉,虽然也还是需要大量的手工编码来完成工作。人们需要手工编写分类器、边缘检测滤波器,以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“ST-O-P”。使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像,判断图像是不是一个停止标志牌。这个结果还算不错,但并不是那种能让人为之一振的成功。特别是遇到云雾天,标志牌变得不是那么清晰可见,又或者被树遮挡一部分,算法就难以成功了。这就是为什么前一段时间,计算机视觉的性能一直无法接近到人的能力。它太僵化,太容易受环境条件的干扰。随着时间的推进,学习算法的发展改变了一切。|&深度学习——一种实现机器学习的技术人工神经网络(Artificial Neural Networks)是早期机器学习中的一个重要的算法,历经数十年风风雨雨。神经网络的原理是受我们大脑的生理结构——互相交叉相连的神经元启发。但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向。例如,我们可以把一幅图像切分成图像块,输入到神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层。第二层的神经元也是完成类似的工作,把数据传递到第三层,以此类推,直到最后一层,然后生成结果。每一个神经元都为它的输入分配权重,这个权重的正确与否与其执行的任务直接相关。最终的输出由这些权重加总来决定。我们仍以停止(Stop)标志牌为例。将一个停止标志牌图像的所有元素都打碎,然后用神经元进行“检查”:八边形的外形、救火车般的红颜色、鲜明突出的字母、交通标志的典型尺寸和静止不动运动特性等等。神经网络的任务就是给出结论,它到底是不是一个停止标志牌。神经网络会根据所有权重,给出一个经过深思熟虑的猜测——“概率向量”。这个例子里,系统可能会给出这样的结果:86%可能是一个停止标志牌;7%的可能是一个限速标志牌;5%的可能是一个风筝挂在树上等等。然后网络结构告知神经网络,它的结论是否正确。即使是这个例子,也算是比较超前了。直到前不久,神经网络也还是为人工智能圈所淡忘。其实在人工智能出现的早期,神经网络就已经存在了,但神经网络对于“智能”的贡献微乎其微。主要问题是,即使是最基本的神经网络,也需要大量的运算。神经网络算法的运算需求难以得到满足。不过,还是有一些虔诚的研究团队,以多伦多大学的Geoffrey Hinton为代表,坚持研究,实现了以超算为目标的并行算法的运行与概念证明。但也直到GPU得到广泛应用,这些努力才见到成效。我们回过头来看这个停止标志识别的例子。神经网络是调制、训练出来的,时不时还是很容易出错的。它最需要的,就是训练。需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确,无论是否有雾,晴天还是雨天,每次都能得到正确的结果。只有这个时候,我们才可以说神经网络成功地自学习到一个停止标志的样子;或者在Facebook的应用里,神经网络自学习了你妈妈的脸;又或者是2012年吴恩达(Andrew Ng)教授在Google实现了神经网络学习到猫的样子等等。吴教授的突破在于,把这些神经网络从基础上显著地增大了。层数非常多,神经元也非常多,然后给系统输入海量的数据,来训练网络。在吴教授这里,数据是一千万YouTube视频中的图像。吴教授为深度学习(deep learning)加入了“深度”(deep)。这里的“深度”就是说神经网络中众多的层。现在,经过深度学习训练的图像识别,在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分,到识别核磁共振成像中的肿瘤。Google的AlphaGo先是学会了如何下围棋,然后与它自己下棋训练。它训练自己神经网络的方法,就是不断地与自己下棋,反复地下,永不停歇。|&深度学习,给人工智能以璀璨的未来
深度学习使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围。深度学习摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。无人驾驶汽车,预防性医疗保健,甚至是更好的电影推荐,都近在眼前,或者即将实现。人工智能就在现在,就在明天。有了深度学习,人工智能甚至可以达到我们畅想的科幻小说一般。你的C-3PO我拿走了,你有你的终结者就好了。注:本文原文来自NVIDIA官网,作者Michael Copeland,Long-time Tech记者。
本文来源:雷锋网
责任编辑:丁广胜_NT1941
用微信扫码二维码
分享至好友和朋友圈
加载更多新闻
热门产品:   
:        
:         
热门影院:
阅读下一篇
用微信扫描二维码
分享至好友和朋友圈机器学习、神经网络在控制科学中的应用前景探讨_人工智能头条_传送门
机器学习、神经网络在控制科学中的应用前景探讨
人工智能头条
【编者按】这是知乎上的一个问题:“机器学习,神经网络在控制科学中的前景和应用大吗?为什么?”提问者怀疑自动控制领域是否应该偏向纯数学的建模,赫尔辛基大学的@高源回复,分别从机器学习的角度和控制算法的角度进行分析,解答了为什么控制算法转向学习算法是不可避免的。答案颇具参考价值。疑问:看到有应用算法来训练新式机器人自我移动的案例(来自斯坦福机器学习老版本课程),觉得很激动,因为这个过程很像生物界的学习过程。自控理论的老师认为当前行业里不太看好神经网络控制的论文,认为水分大,也不够有技术含量。自动控制领域偏向纯数学的建模真的好吗?1,模型本身就是不精确的,各个部件的模型随实践也会改变,仿真的结果可能实际中根本就达不到。2,控制系统日趋复杂,耦合度加大,想要控制如同人一样的机器人,从关节,耦合的表示上就已经很复杂,数学的复杂度必然会限制它的应用。而实际中,1,生物的控制,人的走路,抓取,奔跑,就是长时间训练的结果,模型的精度和可靠性随着我们使用的次数变得越来越高,2,每个人生来就是不一样的,时间增长,每个人会长高,对应在控制理论里就是传递函数的变化,可是人能够很好地适应,说明这个算法适应能力很强,也有很高的通用性(不同的人都使用相同的方法)。回答:首先需要澄清的是神经网络只是机器学习的一个模型,也是控制论的一个模型。她最简单的形式的本质是多个非线性函数合成的函数。是一个非线性函数,比如tanh。这样看来他其实就是一个数学模型,并没有什么特殊之处。而且它和生物界的学习过程差很远,只是最初步的优化,要是考虑相似性,IBM neuron morphiccomputing更像一些,效果却不是很好。下面正式答题。不好意思,在此畅所欲言,抛砖引玉,也希望听到大家的观点。我在这儿把控制科学等量于机器人学来讨论,我相信这样简化并不会减少大家的兴趣。机器人学把对机器人的操控分为两部分, 一部分是perception, 一部分才是传统意义上的控制,control。机器学习对于第一点,perception的作用不可谓不深。无论是监督,非监督的方法对机器人视觉,语言,情感都有不可磨灭的贡献。举几个例子,1. 在视觉识别和分类上面,基本都是机器学习的一个模型(卷积神经网络CNN)独占天下。大家可以看看这个数据库The KITTI Vision Benchmark Suite,基本在每个识别竞赛下都是CNN的改变版本第一名。2. 在情感计算方面,机器学习提供了在数据量大的情况下,识别当前状态下的情感的可能。Stefan Wermter用Recurrent Neuron Network(RNN)的模型分析twitter上每个状态的情感从而让机器人针对不同的情况做出不同的反应。机器学习在perception方面作出的贡献其实是对控制非常有用的,和Sensor Fusion结合在一起,他其实提供了机器人一个更真实的反馈。 只不过这个方面在传统的控制算法当中不受重视,我也就不在赘述。第二点就是传统意义上的的控制算法了。由于在计算机科学历史上,控制算法并不是主要的研究方向,所以学习算法在这个方向上的发展就有些慢。(传统上计算机科学的主要研究方向是图像和NLP)。而且以前的控制算法不需要多少输入,和动辄 1086 x 1086 x 3 x n 输入的图像研究不能比。所以人们倾向于找简单的方法(比如各种判定依据)。这一点上和图像的早期算法是相似的,都是人工的找判定依据(比如某种物品的判定依据)。计算机图像学之所以发生改变,是因为人们发现判定依据太过复杂,而计算资源又有发展,所还不如用学习算法学习这些特征。我觉得控制论也在往这个方向发展。现在很多控制算法开始大量考虑优化问题,我觉得就是趋势。优化问题普遍需要数据,很快控制算法就会和学习算法合流(基于机器学习已经合并了统计学习,以后机器学习也可以合并控制算法)。那么从机器学习本身发展出来的控制算法有没有呢?答案是有的,比如说总有几个神人,比题主和答主早个几十年开始考虑这个问题. 哲学上有名的人是Stefan Schaal,他的文章Is Imitation Learning the Route to Humanoid Robots?是对这个方向最直接的思考。虽然中国对这方面的了解还比较少,但是这篇文章已经有近1000的引用了,说明各国科学家还是很看好这个方向的。这之后很多人有过尝试,但是由于基本是零起步,所以并不是很成功。然后,然后一个叫增强学习方向立功了,这个方向也许很多人都不了解。他是基于强调如何基于环境而行动,以取得最大化的预期利益来学习。也就是说这个机器学习方向的数学模型允许试错存在,也就是你可以尝试,并在错误中学习。具体的数学模型可以参见Sutton的Book。由于数学比较复杂,在比较的少的时间不好解释。我就简单的带一下他的发展史,在发现增强学习中的马克沃夫决策过程(MDP)可以解决控制问题之后,人们又发现,连续的控制过程离散化之后数据会变得非常大。于是就开始直接优化在决策函数的超参数(叫做Policy Gradient 策略梯度方法),发现学习算法终于可以和传统控制有的一比了。不过学习算法和传统算法还有些缺陷,比如题主刚刚说的精确问题,普通学习算法精确度就和普通控制算法比就有些问题(毕竟人类帮这些控制算法总结了物理定律),神经网络就更差了。精确性是神经网络一个非常严重的问题,控制问题对模糊的容忍度比识别问题低的多。因为一次不好的控制就会导致的机器人损坏或者报废。就算在机器人学习算法的大牛里面对神经网络也是慎之又慎。大家一般都是倾向于用容易算出bound的基于马克沃夫决策过程的增强学习算法和容易求出方差的高斯过程回归。一个有趣的事实是,虽然大家都担心神经网络,但是一直都有尝试,因为它好处也太多了。比如和在部分领域最好的perception算法结合,比如训练过程简单,比如scalability非常好。解决对神经网络不信任这个问题,我觉得人们需要发展新的数学工具去解释比如CNN,RNN的复杂神经网络。我认为随着计算能力的增强,控制算法转向学习算法是不可避免的,因为慢慢所有的反馈都由大量的数据组合而成,而没人想一个一个分析。现在人们在研究结构性重组,高斯过程回归,深度学习对算法的改进。而这是我们的时代。【预告】 首届中国人工智能大会(CCAI 2015)将于7月26-27日在北京友谊宾馆召开。机器学习与模式识别、大数据的机遇与挑战、人工智能与认知科学、智能机器人四个主题专家云集。人工智能产品库将同步上线,预约咨询:QQ:。欢迎关注。 大会官网链接:http://ccai2015.csdn.net
觉得不错,分享给更多人看到
人工智能头条 微信二维码
分享这篇文章
人工智能头条 最新文章
人工智能头条 热门文章以前学习机器学习的时候看到有应用算法来训练新式机器人自我移动的案例(来自斯坦福机器学习老版本课程),觉得很激动,因为这个过程很像生物界的学习过程。最近控制理论学习更加深入,也和老师讨论过这个问题。自控理论的老师认为当前行业里不太看好神经网络控制的论文,认为水分大,也不够有技术含量(可能不够纯数学==)。过程控制的老师(是一个很有经验的工程师),非常不看好这样没有经过实践验证,鲁棒性没有保证的算法,认为这个只是理论上的,实践上难以运用。但是我想,自动控制领域偏向纯数学的建模真的好吗?1,模型本身就是不精确的,各个部件的模型随实践也会改变,仿真的结果可能实际中根本就达不到。2,控制系统日趋复杂,耦合度加大,想要控制如同人一样的机器人,从关节,耦合的表示上就已经很复杂,数学的复杂度必然会限制它的应用。而实际中,1,生物的控制,人的走路,抓取,奔跑,就是长时间训练的结果,模型的精度和可靠性随着我们使用的次数变得越来越高,2,每个人生来就是不一样的,时间增长,每个人会长高,对应在控制理论里就是传递函数的变化,可是人能够很好地适应,说明这个算法适应能力很强,也有很高的通用性(不同的人都使用相同的方法)。所以我的问题就是如上问题。、、、、、、、、、、、、、、、、分割线、、、、、、、、、、、、、、、、、、希望大家能参与讨论,解决我的疑惑,也算是在讨论控制科学未来的发展吧
我觉得大家举得例子都很好。对比quora上的悲观言论我觉得我们国人确实在这个方面更加朝气蓬勃一些!虽然我是本科准大四,不过我认为这个方面我还是有一些想法的。传统的控制论是由简至繁,从底层向高层走,从局部向系统发展。一步歩基于之前坚实的累积。但可惜的是目前工业界仅用pid就取得了很好的效果,可见解决问题不一定需要事事求精。我认为控制论的路还非常的长。还有很多可以完善的地方。我所在的学校这个方面的大神有很多,而这个方面对数学和空间的理解要求非常之高。举个例子,我们如果model一个系统,如果它是非线性,有多个未知变量,已经是极其困难的了。从纯数学角度出发,我们虽然可以进行解析和理解,但其复杂程度呈几何增长。这是从数学和物理角度进行理解和分析,如果我们走形而上学的路,不求甚解,而只在已知条件下达到控制要求其复杂程度就大大减少,也大多不会是一个几何增长的复杂问题了。所以我觉得特殊环节采用控制论,而整体则使用机器学习的方式进行控制,将会大大减小问题的复杂程度。由于如今人工智能和机器学习尚未发展到真正的智能,离理解问题的本质尚有非常远的路要走,我们不妨不要把事情看得那么清楚,只要知道多数情况下的多数解即够用。我个人认为,机器学习做的再好,有时候也不如将问题本质看清楚来的透彻,精确和好用,所以控制论的研究仍然有不可复制的作用。但机器学习可以让我们在复杂情况下以较小代价获得优解的作用,更对实际应用具有巨大意义。方法没有高低贵贱,但又好用不好用的区别,用铅笔多练练也能画个圆解几何题,虽然圆规很好,但若是老是造不出来就先用铅笔吧,把题解决是主要的。但我觉得控制论这样走下去博士没读完都是很难有巨大贡献的,所以没有强烈兴趣的人我觉得不要走这个科研方向。向在控制论科研一线奋斗,为世界贡献人生理想的的大神们致敬!
读论文写程序弄得有些身心俱疲。&br&先放结论,和个别我关注的实验室,过几个月再来填坑,说一说我了解的主流结合方法。&br&&br&结论是:统计学习方法(我现在关注的主要是贝叶斯推断)和机器人控制的&b&关系很大&/b&,而且也是现&br&在国际上研究的重点。&br&&br&实验室:&br&UCB &a href=&///?target=http%3A//www.cs.berkeley.edu/%7Epabbeel/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Pieter Abbeel---Associate Professor UC Berkeley---Co-Founder Gradescope---&i class=&icon-external&&&/i&&/a&(Deep Reinforcement Learning)&br&UW &a href=&///?target=http%3A//homes.cs.washington.edu/%7Etodorov/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Emo Todorov&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//www-clmc.usc.edu/Main/StefanSchaal& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&StefanSchaal Computational Learning and Motor Control Lab&i class=&icon-external&&&/i&&/a&(不是哲学家啊.....他学生在01年弄出来的MDP完成了很多很awesome的成果,比如说击球,还有“请球入瓮”)&br&&a class=& wrap external& href=&///?target=http%3A//www.ausy.tu-darmstadt.de/Member/JanPeters& target=&_blank& rel=&nofollow noreferrer&&Jan Peters&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.ausy.tu-darmstadt.de/Research/Overview& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ausy.tu-darmstadt.de/Re&/span&&span class=&invisible&&search/Overview&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&(Schaal 的学生,reinforcement learning 的大牛,IJRR上面的RL survey就是找他们实验室写的,论文请戳这里(&a href=&///?target=http%3A//www.ias.tu-darmstadt.de/uploads/Publications/Kober_IJRR_2013.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ias.tu-darmstadt.de/upl&/span&&span class=&invisible&&oads/Publications/Kober_IJRR_2013.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&),前几年在教机器人打乒乓球)&br&还有ICRA2015的明星paper &Learning Contact-Rich Manipulation Skills with Guided Policy Search&的作者&br&Sergey Levine &a href=&///?target=http%3A//www.eecs.berkeley.edu/%7Esvlevine/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sergey Levine&i class=&icon-external&&&/i&&/a&(今年已经去了UW了,和Todorov勾搭上了,两个人还合著了一篇ICRA)&br&Levine的这篇论文中,作者就是用统计学习学习的方法,结合了传统的控制理论,对一个神经网络的参数进行了优化。把这个神经网络作为机器人的控制器,控制机器人完成了一系列复杂动作。
读论文写程序弄得有些身心俱疲。 先放结论,和个别我关注的实验室,过几个月再来填坑,说一说我了解的主流结合方法。 结论是:统计学习方法(我现在关注的主要是贝叶斯推断)和机器人控制的关系很大,而且也是现 在国际上研究的重点。 实验室: UCB
题主的问题是 &a href=&/question/& class=&internal&&机器学习,神经网络在控制科学中的前景和应用大吗?为什么?&/a&&br&首先需要澄清的是神经网络只是机器学习的一个模型,也是控制论的一个模型。&br&她最简单的形式的本质是多个非线性函数合成的函数。&br&&img src=&///equation?tex=f_%7Ball%7D%28%5Cvec%7Bx%7D%29+%3Df_1+%5Ccirc+f_2+%5Ccdots+f_n%28%5Cvec%7Bx%7D%29%3Cbr%2F%3E& alt=&f_{all}(\vec{x}) =f_1 \circ f_2 \cdots f_n(\vec{x})&br/&& eeimg=&1&&&br&&img src=&///equation?tex=f_i%28%5Cvec%7Bx%7D%29%5Cequiv+%5Csigma%28W%5Cvec%7Bx%7D%29%2C+%5Cforall+i+%5Cin+%5C%7B1%2C2%5Ccdots%2Cn%5C%7D& alt=&f_i(\vec{x})\equiv \sigma(W\vec{x}), \forall i \in \{1,2\cdots,n\}& eeimg=&1&&&img src=&///equation?tex=%5Csigma& alt=&\sigma& eeimg=&1&&是一个非线性函数,比如tanh。&br&这样看来他其实就是一个数学模型,并没有什么特殊之处。而且它和生物界的学习过程差很远,只是最初步的优化,要是考虑相似性,IBM neuron morphiccomputing更像一些,效果却不是很好。&br&&br&下面正式答题。&br&不好意思,在此畅所欲言,抛砖引玉,也希望听到大家的观点。&br&我在这儿把控制科学等量于机器人学来讨论,我相信这样简化并不会减少大家的兴趣。&br&机器人学把对机器人的操控分为两部分, 一部分是perception, 一部分才是传统意义上的控制,control。&br&&br&机器学习对于第一点,perception,的作用不可谓不深。无论是监督,非监督的方法对机器人视觉,语言,情感都有不可磨灭的贡献。举几个例子,1. 在视觉识别和分类上面,基本都是机器学习的一个模型(卷积神经网络CNN)独占天下。大家可以看看这个数据库&a href=&///?target=http%3A//www.cvlibs.net/datasets/kitti/eval_stereo_flow.php%3Fbenchmark%3Dflow& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The KITTI Vision Benchmark Suite&i class=&icon-external&&&/i&&/a&,基本在每个识别竞赛下都是CNN的改变版本第一名。2. 在情感计算方面,机器学习提供了在数据量大的情况下,识别当前状态下的情感的可能。Stefan Wermter用Recurrent Neuron Network(RNN)的模型分析twitter上每个状态的情感从而让机器人针对不同的情况做出不同的反应。机器学习在perception方面作出的贡献其实是对控制非常有用的,和Sensor Fusion结合在一起,他其实提供了机器人一个更真实的反馈。 只不过这个方面在传统的控制算法当中不受重视,我也就不在赘述。&br&&br&第二点就是传统意义上的的控制算法了。由于在计算机科学历史上,控制算法并不是主要的研究方向,所以学习算法在这个方向上的发展就有些慢。(传统上计算机科学的主要研究方向是图像和NLP)。而且以前的控制算法不需要多少输入,和动辄 1086 x 1086 x 3 x n 输入的图像研究不能比。所以人们倾向于找简单的方法(比如各种判定依据)。这一点上和图像的早期算法是相似的,都是人工的找判定依据(比如某种物品的判定依据)。计算机图像学之所以发生改变,是因为人们发现判定依据太过复杂,而计算资源又有发展,所还不如用学习算法学习这些特征。我觉得控制论也在往这个方向发展。现在很多控制算法开始大量考虑优化问题,我觉得就是趋势。优化问题普遍需要数据,很快控制算法就会和学习算法合流(基于机器学习已经合并了统计学习,以后机器学习也可以合并控制算法)。&br&&br&那么从机器学习本身发展出来的控制算法有没有呢?答案是有的,比如说总有几个神人,比题主和答主早个几十年开始考虑这个问题. 哲学上有名的人是Stefan Schaal,他的文章Is Imitation Learning the Route to&br&Humanoid Robots?是对这个方向最直接的思考。虽然中国对这方面的了解还比较少,但是这篇文章已经有近1000的引用了,说明各国科学家还是很看好这个方向的。这之后很多人有过尝试,但是由于基本是零起步,所以并不是很成功。然后,然后一个叫增强学习方向立功了,这个方向也许很多人都不了解。他是基于强调如何基于环境而行动,以取得最大化的预期利益来学习。也就是说这个机器学习方向的数学模型允许试错存在,也就是你可以尝试,并在错误中学习。具体的数学模型可以参见Sutton的&a href=&///?target=http%3A//webdocs.cs.ualberta.ca/%7Esutton/book/ebook/the-book.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Book&i class=&icon-external&&&/i&&/a&。&br&&br&由于数学比较复杂,在比较的少的时间不好解释。我就简单的带一下他的发展史,在发现增强学习中的马克沃夫决策过程(MDP)可以解决控制问题之后,人们又发现,连续的控制过程离散化之后数据会变得非常大。于是就开始直接优化在决策函数的超参数(叫做Policy Gradient 策略梯度方法),发现学习算法终于可以和传统控制有的一比了。&br&&br&不过学习算法和传统算法还有些缺陷,比如题主刚刚说的精确问题,普通学习算法精确度就和普通控制算法比就有些问题(毕竟人类帮这些控制算法总结了物理定律),神经网络就更差了。精确性是神经网络一个非常严重的问题,控制问题对模糊的容忍度比识别问题低的多。因为一次不好的控制就会导致的机器人损坏或者报废。就算在机器人学习算法的大牛里面对神经网络也是慎之又慎。大家一般都是倾向于用容易算出bound的基于马克沃夫决策过程的增强学习算法和容易求出方差的高斯过程回归。一个有趣的事实是,虽然大家都担心神经网络,但是一直都有尝试,因为它好处也太多了。比如和在部分领域最好的perception算法结合,比如训练过程简单,比如scalability非常好。解决对神经网络不信任这个问题,我觉得人们需要发展新的数学工具去解释比如CNN,RNN的复杂神经网络。&br&&br&我认为随着计算能力的增强,控制算法转向学习算法是不可避免的,因为慢慢所有的反馈都由大量的数据组合而成,而没人想一个一个分析。现在人们在研究结构性重组,高斯过程回归,深度学习对算法的改进。而这是我们的时代。&br&&br&btw.&br&跨过GFW的朋友可以看看这个论文相关的视频,可以对学习算法如何进行控制有个直观的概念。&br&&a href=&///?target=https%3A///watch%3Fv%3DualnbKfkc3Q%26list%3DPLD3r59GwPNy03mxmI17UJqGmiCZQ_b7YL%26index%3D1& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/watch?&/span&&span class=&invisible&&v=ualnbKfkc3Q&list=PLD3r59GwPNy03mxmI17UJqGmiCZQ_b7YL&index=1&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&
题主的问题是
首先需要澄清的是神经网络只是机器学习的一个模型,也是控制论的一个模型。 她最简单的形式的本质是多个非线性函数合成的函数。 f_{all}(\vec{x}) =f_1 \circ f_2 \cdots f_n(\vec{…
已有帐号?
无法登录?
社交帐号登录}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信