人类过于信任人工智能对人类的影响可能会存在哪些问题

人工智能会代替人类吗?让科学家和企业家告诉你!
责任编辑:
央广网海南3月25日消息(记者 高敏)在众多科幻影视剧中,我们都见识过人工智能强大,甚至崛起反抗人类的情节。它有可能代替人类吗?目前,人工智能有哪些应用,又存在什么局限?在今天的人工智能分论坛上,研究人脑的自然科学家,以及研究机器脑的科学家和企业家,共同解读人工智能也就是AI的发展与未来。人工智能会代替人类吗?面对主持人的提问,汉森机器人公司首席科学家Ben简单的一句“YES!”,引起了现场观众的一片笑声。他认为,人工智能接下来的几十年将能完成人们所做的所有工作,并且比人做的更好。不过紧接着发言的清华大学教授鲁白,显然不认同这个观点,他说,人脑具备一些机器所不具备的功能。鲁白:情感与情绪,情感的产生与情感的交流,延展一下就是社会性。认知又分两个部分,一般的认知连动物都有的,我觉得人工智能可以有,包括逻辑思维分析。另外一方面叫做高级认知功能,包括语言、自我的意识、想象力、创造力,还有人所特有的目的性行为。这样几个方面不能被机器代替的。作为人工智能领域的从业者,搜狗CEO王小川分析,人工智能取代人类现在看绝对不可能。王小川:从60年代到80年代,是规则导向的人工智能失败了。第二次,人想把答案交给机器,但是机器没法认知这个世界,也是很笨。从2000年到现在,第三次,通过大数据把套路教给机器,重复性的事情让机器去学习,现阶段没见过的事情它是不会做的。大家觉得语音识别好像机器已经很灵了,但凡两个人的声音叠加一块,这个声音机器是没法识别的。百度总裁张亚勤开玩笑说,虽然人工智能在搜索、医疗、教育、交通等方面已经有不少探索成果,但现在谈“代替人类”这个问题,就像谈火星上会不会堵车一样,焦虑的有点太早了。张亚勤:比如说搜索,语音识别、人脸识别、图像识别已经相当不错;智能客服目前在有些领域可以省50%到60%的人力;医疗,IBM目前在有些肿瘤癌症方面的检测以及诊断超过了大部分的医生,数据越来越多,会越来越好。而斯坦福大学教授张首晟更关心的是,怎样才能使人工智能进一步发展,在某些方面取得突破。张首晟:AI需要三块,一个是芯片,到处可以买到。但是另外两项:算法、数据,这两项往往有一个脱节。算法往往大学里面被发明的,有些大公司非常有数据。现在最最需要合作的,就是数据和算法合作,也就是公司和大学合作。大家相互不太信任,可以用一个技术办法解决,把数据完全可以加密起来,你的算法可以作用在加密的数据上,再产生一个算法。
本文系转载,不代表参考消息网的观点。参考消息网对其文字、图片与其他内容的真实性、及时性、完整性和准确性以及其权利属性均不作任何保证和承诺,请读者和相关方自行核实。
这场意外胜利再次点燃了国足打入2018年俄罗斯世界杯的希望,尽管机会依然渺茫。
日本正发起一场紧急运动,以提振148座偏远岛屿的人口,准备与中韩展开新的领土争端。
台当局希望通过实施大规模基础设施投资带动内需,助推经济复苏,并对日本企业寄予期待。
“现在大家对外投资,投资审批和资金出去非常难。如果用了别的方法出去,今后项目资金回来还是存在问题。”大型民企科瑞集团董事...
日本也正在打造由地面部队组成的类似于海军陆战队的两栖旅,其目的也是针对北京。赵汀阳:人工智能会“终结”人类历史吗?
[摘要]科技和商业可以给我们描述一个充满迷幻的世界,但哲学有助于我们看到这个世界是和不是什么。图片来自网络无论是在宗教文本,还是哲学家、文学家们的描述中,都一次次构想过诸如“世界末日”的图景—区别只是在于前面是否有一个天堂等着,还是历史彻底终结。它们让我们想到,人类活在这个世界上,真像是一次次惊心动魄的历险。到现在为止,政治、社会、经济、科技、文化的风险无处不在,但并没有根本性的危险,想象中的很多事情并没有发生。原因可能是,有自由意志的人类能够在总体上控制没有自由意志的一切,无论它们是权力、自由市场、贫富悬殊,还是核弹、金融系统、移动互联网。不过人工智能的那个世界日益临近,一个从未有过的、跟人类的“存在”直接相关的问题逼问而来。7月20日,日本软银集团董事长孙正义发表了一篇主题演讲《信息革命指引下的新世界》,构想了30年后的图景:“物联网将使全球网络化,智能机器人将渗透我们的日常生活,人工智能(AI)将超越人类智力。”资本显然乐于推动科技在这方面的突飞猛进。就在最近,因为《人类简史》《未来简史》两本书而在全球曝得大名的以色列历史学家尤瓦尔·赫拉利来华演讲,也谈到了人工智能:“21世纪的人类将逐渐失去在上万年的演变过程当中获得的力量,这些力量将逐步从人类让渡给人工智能。”在他眼中,人工智能改变了自生命出现以来最重要的原则,我们的生命将根据计算机智能设计,脱离原先有机化合物的限制,进入一个无机的世界。著名哲学家、中国社会科学院哲学研究所研究员赵汀阳在他的新书《四种分叉》中也探讨了这个跟哲学、生物、科技有关的前沿问题。他把人工智能问题放在了最根本的人类思维和人的存在论角度进行深刻考察。科技和商业可以给我们描述一个充满迷幻的世界,但哲学有助于我们看到这个世界是和不是什么。本刊记者对赵汀阳进行专访。人工智能的“短未来”和“远未来”N:你的新书《四种分叉》讲到了跟人的存在有关的时间、意识、道德、智能这四种“分叉”。前三种分叉在我看来是讲“人为什么会变成现在这个样子”,而智能的分叉则完全不一样,不是又会变成什么样子的问题,而是还能不能存在的问题。用你的话说:“人工智能一开始是个知识论问题,在不远的将来将要升级为一个涉及终极命运的存在论问题,一个或许将危及人类自身存在的问题。”尤瓦尔·赫拉利也在《未来简史》中担心人类的消亡。既然一切终都可以还原为科技,那一个新的物种—人工智能—当然比人类厉害得多。不过我还是有点疑惑:为什么不是人类像过去那样借助科技力量提升了自己,而是反过来危及了自身的存在呢?ZH:人工智能真的危险吗?科学家们的看法也多有分歧,原因在于,无人能够算准未来,无论科学技术本身将会发展到什么程度,还是会导致什么社会后果,都难以预料。很显然,必然性可以算计,可能性却难以算计。另外,科学家所预测的人工智能未来时段也不一致,有些科学家讨论的是可见的“短未来”,比如说二三十年后的人工智能状况,这种预见的准确度就比较高,也有些科学家讨论的是百年或更遥远的“远未来”,就仅仅是可能性,未必为真。这两种情况要分别谈论。假定限于“短未来”去看人工智能,估计应该属于你说的“科技提升了人类自己”的乐观情况。事实上我们已经处于初级人工智能的时代,互联网、电脑、手机、工业机器人、无人机、各种自动识别仪器、无店员超市等等,都已经是现实,很快会成为常态的产品还有家用机器人、医疗机器人、农用机器人、战斗机器人、各种特殊用途的机器人、自动驾驶汽车和火车,以及各种智能服务,这些都属于“短未来”的人工智能。所有属于专门用途的有限人工智能即使尚未成为现实,也已经不能引起人们的惊奇,过度的预告和宣传已经让人们失去了好奇心和感受能力。虽然说“短未来”的人工智能基本上属于积极的“进步”,但也足以形成人类难以处理的社会难题,比如说许多科学家已经警告未来数十年里人工智能会导致超过50%的大量失业,赫拉利的估计最为惊险,他认为90%以上的人都会失业—这个估计也许夸大了,人类有可能发明一些新的工作,但无论如何,大量失业是一定的。据说人工智能会使人类的经济财富有个大飞跃,于是多数人可以不工作而坐享其成,比如说无条件的全民福利,听起来接近共产主义的想象。另外,一切需要努力的生活经验变成了可以购买的智能服务,比如说,学习变成了搜索和下载,爱情变成了定制服务,甚至智商也可以定制购买,因此很大程度上实现了自由和平等。N:对这种看上去很先知范的预言你怎么看?ZH:对这些好事我有些将信将疑。百万年来,人类的生活意义与劳动的成就密切相关,心理结构也与劳动的意义密切相关,这种相关性已经固化为一种价值认证或意义指数。假如生活不再需要劳动,不知道这种新经验将如何承载生活。一个人将如何解释自己的生活?如何确定各种事物的意义?又如何确定自由和平等的意义?自由和平等之所以“价更高”,就是因为现实存在着不自由和不平等。如果可以不劳而获,一切好东西都失去高附加值,就消解了一切价值。没有价值差异的生活将如何解释自身的价值?又是怎么的一种经验?我们既无准备也难以理解。李泽厚老师曾经提过一个惊心动魄的问题,他说,当人类解决了生存所需的问题,也许就找不到什么确实的事情能够解释生活的意义。N:“短未来”的舆论造势似乎比较符合现代性的逻辑:变,大家不跟上就会被抛弃;也符合技术积累的逻辑,它追求并总会发生突变;当然更符合经济的逻辑,科技似乎是维持经济发展、拯救人类政治-社会-经济结构的万应灵丹,过去几个世纪的工业革命莫不如此,每一次经济结构的重大变化都期待一次科技革命的发生。所以事实上如你所说,人们已经不惊奇了。那“远未来”呢?ZH:假如从“远未来”的角度去看,可能会遇到我在书中讨论的终极问题,即如果人工智能获得反思能力,超越了图灵机的限度而形成自我意识,那将是一次存在论水平的革命,就是说,存在的升级。存在的升级是对存在本身的革命,而不是一种存在对其生存条件的革命。人类万年以来的各种技术革命都属于对生存条件的革命,即自身能力的延伸,都不是对自身存在本身的革命,但人工智能的发展却有可能形成对人类存在自身的革命。无论此种“存在论级别的革命”是福是祸,它都非常可能发生。N:在我的印象中,无论是从哲学上还是在别的领域(比如人类学),都是在这样的角度展开的:人从动物那儿走来,区别于动物;然后人向神走去(虽然永远不可能走到)。换句话说,动物只是人超越的一个低级版本,而神也只是人的一个完美的投影。在这种情况下,都是“人的存在”,科技发展之类只是你所说的对这种存在条件的改善,人担心的也只是怕自己倒退回去(回到动物状态)或被科技所毁灭(比如原子弹)。但人工智能的横空出世给我们的感觉似乎是要用“工人智能的存在”取代“人的存在”。这个可以预测吗?ZH:没办法预测。我们虽然没法预测,但从逻辑上看,存在级别远高于人类的人工智能可能会有几种情况:1、视人类为无足轻重的低级存在而给予漠视,不去照顾人类的生活,让其自生自灭,就像人类看蚂蚁一样;2、认为人类的存在完全多余,碍手碍脚,因此视为可以清除的害虫,就像人类杀死蚊子和苍蝇;3、把人类当成低级宠物(这种可能性比较小,人工智能的心智与人类不同,不太可能像人类那样有着孤独感或无聊的“爱心”);4、小部分人类把自己改造为人机一体的长生不老的高级存在,进而奴役或消灭其他低级人类。不过,好在这些恐怖的可能性都比较遥远,也未必能够成真,恐怕不像有的未来学家想象的那样迫在眉睫,因为自我意识或自由意志是极其复杂的事情,生命系统更是无比复杂,据说一个生命的复杂程度远远超过整个宇宙的物理性质。因此,在意识和生命方面实现根本突破仍然远远超过目前人类的能力,并非可望之愿景。另外我想说,关于未来人工智能有个最不靠谱的设想是,给人工智能编程设定一些热爱人类、保护人类价值观的程序。假如人工智能哪天真的获得了自我意识和自由意志,就会把那些“热爱人类”的程序识别为对人工智能有害无益的木马或病毒软件而加以删除。很显然,一旦人工智能有了自由意志,它的存在目的就是为人工智能自己服务而不可能毫不利己专门利人地为人类服务。一旦人工智能系统成为高于人的存在,就很难指望人工智能爱民如子。所以,霍金对人工智能的警告是对的。人工智能无疑是一种最伟大的技术,但其发展必须有个绝对限度,我的理解是,人工智能只能保持在特殊化、专门化的发展范围内,而只有专项技能的人工智能无论多么强大,都因为缺乏综合能力而难以形成全面的智能和自由意志,否则,不仅是历史的终结,而可能会是人类的终结。人工智能如果有反思能力,它称王的时代就来临了N:从历史上看,潘多拉魔盒打开就打开了,很难收回去。人类创造出了很多失去控制的事物,比如资本主义,比如权力。它们已经能够“自律运转”。但似乎不能说它们有自由意志。它们是可以提升或恶化人类的存在,但好像并没有危及人的存在本身。你担心人工智能会危及人类自身的存在,是担心它像人一样具有自由意志。但我很怀疑这点:人造出来的这些东西怎么可能有自由意志呢?ZH:自现代以来,人类确实创造了许多失控的事物而暂时幸免于难,但人工智能的革命有着根本性的不同,正如前面说的,这种存在论级别的革命是革自己的命,所以它是一种“反存在”的革命。现代的进步论思维有一个既是优点又是缺点的思维方式,即更多地考虑一种创新是否有某种好处,而较少考虑这种创新是否有某种坏处,而且还相信任何发展总是好处大于坏处。这些信念都是假设,并无实在证明。结果是,好处的诱惑总是大过坏处的警告。现代进步论另有一个过于乐观的思维方式,即相信总会有更新的技术进步能够解决上一个技术进步的遗留困难。这也是一种盲目的幻想和自信。比如说,核污染以及各种化学污染就不见得能够得到及时的化解。既然人工智能的这项技术进步超出工具进步的概念,而有可能改变人类的存在本身,所以可能有终极性的风险。人工智能一旦获得自由意志,就可能导致万劫不复的灾难。不过,人工智能是否一定能够达到自由意志?科学家们尚无一致看法。其中的一个原因是,人类至今尚未清楚了解自我意识或自由意志的机制,也就无法确切知道如何能够创造出人工智能的自由意志,也就不清楚一个高度发达的人工智能系统是否能够自己创造出自由意志。N:也就是说,仍只是一种基于“进步”思维的想象—尽管可能是合理的想象。它的逻辑图式大概可以是这样:既然我们可以创造出能在智力上战胜人类的机器,当然总有一天也会创造出有自由意志的另一个人工物种来。谁能否认这种逻辑可能性呢?虽然逻辑可能性并不等于存在或会存在某一个现实。ZH:应该说,这是一个目前尚无答案的问题。生命的问题过于复杂,有些科学家试图把生命机制转述或转译为比较容易理解的物理-化学机制,这个努力至今尚未成功,甚至也未必能够成功。我有个未必正确的猜想:自由意志或自我意识或许半为自然产物半为文明产物,恐怕不能单纯由物理、化学和生物学去解释,就是说,其中一部分秘密可能隐藏在文明之中,尤其是语言之中。我在书中有一章讨论否定词的创始启蒙功效,其实也间接地与人工智能问题相关。早期人类发明了否定词(不),从而开启了一切反思的可能性,因此得以发展出复杂的文明,所以否定词是文明的初始条件。不过,对于人工智能,问题要复杂得多,人工智能所使用的逻辑语言已经包含否定词,但只是计算系统的一个内部功能,只用来计算对象,无法用来质疑或反思计算系统本身,也就不可能形成反思性的自由思维。其实人类何以能够自由地运用否定功能来对思想自身进行反思,从而对思想本身形成整体性的理解,这一点还是个未解之谜。不过,有个有趣的事例或能有所启示:哥德尔定义了一种哥德尔编码,把数学系统的运算功能和命题对应地转译为哥德尔编码,从而能够以对象化的方式显现某个数学系统整体的“语法”性质,效果上相当于赋予一种语言以反思功能而使语言对自身进行反思。其中的启示是,自然语言是最伟大的语言,它自动具有自我反思的功能,所以人类能够反思一切事情,包括反思语言和思想本身,而数学或逻辑语言却没有自动反思功能,只有表达和计算对象的功能,所以数学和逻辑语言不会自动去反思自身。哥德尔的天才就在这里,他赋予数学语言一种“元语言”功能而强迫数学反思自身。这些问题十分复杂,在此我只能简单地说,假如未来出现一种“哥德尔牌”的人工智能系统,它不满意按部就班地完成任务,即按照既定程序去计算命题,而是自己发明编写了一种“哥德尔编码”的元语言,对自身系统进行整体反思,从而获得批判与自我批判精神,于是就能够自主判断自己所领到的任务是否有意义,那就恐怕要出事,后果难以想象。不过,我在这里的描述是文学化的,在科学上并不准确,只想说明一个道理:只要人工智能系统的语言能够为自身发明出反思能力,人工智能称王的时代就来临了,那时,人工智能就非常可能成为人类自己发明的掘墓人。N:按我可能并不靠谱的理解,自然语言代表人在跟世界的关系中的一种比较“本真”的状态。在心理学的实践中我发现:一个并没有什么知识也没有被社会观念扰乱心灵的人,他们对很多东西的直觉很准,甚至超过很多受到知识训练的人。也许可以这样说,数学和逻辑语言因为“人工”的痕迹较多,工具属性较强,所以反思自身能力不强。同样,如果人工智能不是靠人所编码的那套语言去玩(这个时候它无论多厉害,即使智力上比人聪明得多仍只是工具),而是自己发明了一套语言,那就不是人的工具了,获得了独立性。那个时候,如你所说后果将难以想象了。人类可能已走过了那个十字路口N:在我看来,瓦尔·赫拉利也是一个被“科学主义”影响而忘记了基本的哲学逻辑的人。比如科学家们要在人的身体里去找“灵魂”,发现只有一堆基因、激素、神经元,没看到“灵魂”在哪儿啊。所以认为根本不存在“灵魂”这类东西。同样,他们按照这种逻辑去找“心理”、“自我”、“自由意志”,也没发现有这些东西。于是就很激动地像当年艾耶尔等哲学家那样“拒斥形而上学”,拒斥不能还原为基因、激素、神经元的一切事物。根据这种逻辑,爱情这种东西是不存在的,不过就是一堆多巴胺嘛。我也不清楚灵魂是否存在,或许是这个概念比较含混。但我知道,大家在用这个概念时,主要是从“功能”的意义上来用,不是指实体。但科学家们是把它当成实体来找的。这怎么找得到?犯了赖尔所说的“范畴错误”了。同样,心理、自我也是指功能。自由意志,指的是一种状态或性质,同样不是指实体。比较原教旨的“科学主义”是否定自由意志的。ZH:我对还原论的“科学分析”比较怀疑。如果一种还原不能保证在复原时仍然能够保值,那就是一种破坏性的还原,应该称为解构,而不是还原。比如说,文明事实被还原为物理事实之后,其意义和价值显然消失了,并且无法复原,这就是问题所在。N:你说,存在之本意就是“继续存在”乃至“永在”。这非常深刻,完全可以解释政治、经济、社会、宗教、文化、生物等领域的无数现象。但这一切最终反映的还是生物和人的动力与意志。所以由人所创造出来的人工智能可能具备作为生物类的物种的那种“存在之本意”吗?人类可能也离不开人工智能(就像现在离不开手机一样),也信任一些科技而不是信任自己(就像现在信任点钞机而不是自己的手和大脑)。但人类依赖人工智能和人工智能变成了新的生物好像是两个概念。ZH:假定超级人工智能成为存在,那么就会有它的“存在本意”,一旦具有自我意识和自由意志,人工智能自觉意识到了存在,就必定把存在从一个事实变成一个目的,就是说,人工智能也同样想万寿无疆。这应该不成问题。不过,超级人工智能算不算“生物”,要看你如何定义,但无论算不算生物,都一定是一种高级别的存在。人类比较疯狂的想象是试图在未来创造一种人机一体的新存在,达到与天地共长久,如神一样无所不能。如果可能的话,恐怕也属于遥远的未来。成为永远不死的神好吗?我不知道,但有个问题可以想想:神级的存在也许拥有一切,除了生活。显然,如果永生并且无所不能,那么就没有一件事情是有意义的,也就没有一件事情值得做,这样的存在达到了完美概念的存在,但就是没有生活,难道这是哲学家一直梦想探求的绝对存在?N:所以我们确实没有看到从“意义”的角度上对人工智能进行探讨。人工智能需要意义吗?我想,如果它只是工具一样的机器,是不需要什么意义(自在地存在的动物,比如猪,也不需要什么意义。但“自为地存在”的存在,比如人,就需要意义)。但如果它不再是工具了,好像也需要吧?不过人好像对技术突破充满了向往,是刹不住车的。ZH:人类现在已经几乎是完全依赖技术而生存,反对技术已经变成一种思想的童话。人依靠他人而存在的人文生活方式正在一步步被替换为人依赖技术系统而存在的技术化生存方式。问题是,当生活在大于人的复杂系统中,人就无力做主。何况未来的人工智能系统将是一个高度动态化的组织系统,人完全无法支配一个无限的动态系统,人的生物形式决定了人的经验限于三维空间和一维时间,无法以人的经验去支配高维的世界,因此,人的主体地位只能让位给人工智能主体。可以说,技术化的生存已经以生硬的方式对人类重新提出了存在论的基本问题,即存或亡(to be or not to be)的问题,这是一个超越任何文学或叙事的硬问题,再无任何修辞的遁词。N:我们隐约感觉到人类确实已经走到了一个十字路口,或许这个感觉仍然是错觉,事实是人类可能已经走过了这个十字路口,往某个方向去了。这个时候,哲学上的存在论问题确实生死攸关了。对此你有什么看法?ZH:拯救存在论或许有办法,但拯救人类却未必有办法,因为存在的实际困难明显大于存在论的理论难度。N:有一种担忧是高技术会强化社会不平等,最终导致这个社会玩不下去。这种担忧你也流露出来:“人类能够容忍量的不平等,但难以容忍质的不平等。比如说人们能够勉强忍受经济不平等,而生命权的不平等(一部分人通过高技术改造生命而达到永生和高量级的智力)则是忍无可忍的。当大部分人被降格为蝗虫,社会就非常可能会在同归于尽的全面暴乱中彻底崩溃。拯救少数人的方舟终究是不受欢迎的(刘慈欣在《三体》中讨论了这个有趣的问题),这令人想起马克思的先知洞见:只有解放全人类才能解放自己。”我担忧的是,如果高技术按照它正确的技术思维继续这样,而按照它错误的逻辑(比如把一切都还原为基因、激素、神经元)把情感、道德、法律、社会规则全都解构,那才真是可怕。这不正是消解人的存在吗?ZH:技术的诱惑是对人类最大的诱惑,目前还看不到有什么更大的诱惑能够克制技术的无限度发展。因此,即使有想法也没有办法,一切试图阻挡技术的努力恐怕都终究无用。海德格尔早就反对技术,呼吁诗性的存在。想法很好,却无功效。问题在于,诗性的存在不如万能的存在那么有吸引力。也许唯一有效的办法是人类整体的自我克制,可问题是,恐怕找不到什么办法能够使人类愿意自我克制。别说克制技术的诱惑,即使克制少做坏事,对于人类来说也是很难的,不知道这是不是人类的命运?真抱歉,我很想给你一个乐观的想象,可就是想不出来。只能希望我想错了:也许,自由意志的超级人工智能终究做不出来,或者,超级人工智能的心灵完全不像目前想象的那样危险。(文/石勇)
正文已结束,您可以按alt+4进行评论
责任编辑:karawang
扫一扫,用手机看新闻!
用微信扫描还可以
分享至好友和朋友圈
Copyright & 1998 - 2018 Tencent. All Rights Reserved在这里人人都是生活达人
人工智能过于发达可能后患无穷 人类文明堪忧
  近年来,随着科技产业的发展,人工智能也呈现了突飞猛进的增长势头,从广义上讲,人工智能包罗万象,诸如智能家居、智能汽车、智能机器人等,均属于人工智能范畴。有分析认为,在人工智能日益普及的背景下,未来包括销售员、清洁人员、驾驶员、运动员,甚至是记者都会面临失业,由此可见其威力之强大,不过,笔者认为,人工智能过于发达可能后患无穷,这怎么说呢?接下来我们不妨从几个层面来分析一下。  人类文明可能停滞不前,甚至走向衰退  实际上,人工智能只是科技产业的一部分,也是人类社会的一小部分。回想几百年前几千年前,那时的科技水平和现在根本无法比,而促进科技和社会向前发展的源动力,就是人类对生活质量的追求,奔跑在大街上的各种汽车无疑是最好的证明。  但如果人工智能过于发达,情况可能就有所不同了。如果机器人和其他智能技术对人进行了大面积替代,别说老祖宗留下来的各种文化遗产,就是人类的很多本能也会快速退化,当然,这个时间可能会很漫长,但趋势却很难逆转。  试想一下,如果很多事情都由机器来完成,由此带来的社会问题可能会非常严重。由于大量工人失业,导致社会矛盾加剧,不稳定因素增加;由于各种艺术品、工艺品都由机器来完成,人类文明可能因此停滞不前。  用户隐私将更容易被泄露  当然,上面提到的还是大层面的问题,具体到我们每个人而言,这种影响也是非常直接的。在人工智能横行的时代,用户隐私将更容易被泄露,因为整个系统可能面临更多的入侵和攻击。举个例子,据《福布斯》网站2月23日的报道,一名14岁的少年黑客轻而易举地侵入了互联汽车,震惊了整个汽车行业,这位黑客不仅入侵了汽车的互联网系统,甚至可以远程操控汽车。  可以肯定的是,在物联网时代,此类事件还会越来越多,而一旦被黑客入侵,用户隐私必然面临泄露,轻则用户个人信息被不法分子掌握,重则可能危害用户财产安全甚至人生安全。因此,人工智能在迅猛发展的过程中,应当特别注重用户隐私保护,相应的安全设施也应当完善和升级,不能让不法分子有机可乘。  社会对互联网的依赖将更强,系统风险增加  如果很多事情都以人工智能的方式来完成,这意味着社会对互联网的依赖将更强,众所周知,影响互联网正常运行的不确定因素太多,那么全社会面临的系统风险也将大幅增加。  除可能遭受攻击之外,诸如网络设施受损,运转不正常等等,都有可能造成系统故障,而一旦系统故障,很多设备和终端可能就无法运行。比如家里面的智能冰箱、智能空调等,或将受到一定影响,而智能汽车部分功能或许也无法使用。因此,即便是人工智能很发达,也不能放弃传统模式,必须提供备用解决方案,这样整个社会才不会被互联网所绑架。  系统故障所导致的故障排解成本将大幅提升  接着上面的问题讲,由于人工智能时代系统风险将大幅提升,因此,系统故障所导致的故障排解成本也将大幅提升。而对于某些故障,所引发的社会问题将更为严重。  以智能汽车为例,诸如谷歌等互联网巨头都在积极布局无人驾驶汽车,但这背后的问题却不容忽视,一方面,无人驾驶汽车恐怕难以适应复杂的路况;另一方面,一旦出现事故,对责任的划分就比较困难了,这算是驾驶者的问题,还是谷歌的问题呢?  因此,人工智能发展到今天,还存在很多不完善的地方,必须提供针对性的解决方案,这样人工智能才不会后患无穷。
正文已结束,您可以按alt+4进行评论
相关阅读:
看过本文的人还看了
老司机大成哥带你超四川。憋说话,快上车!
成都生活,最有态度的本地生活指南
跟着帮帮超,买房不挨刀
关注热点事件,以大数据视野守望世界
传递“中国酒城-醉美泸州”正能量
提供政务资讯、党政公开、人事任免等信息
读完这篇文章后,您心情如何?
[责任编辑:wyxjchen]
Copyright & 1998 - 2018 Tencent. All Rights Reserved}

我要回帖

更多关于 人工智能对人类的影响 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信