google的研究人工智能和机器学习什么时候开始的

作者:黎赟
编辑:黎赟 标签:
一周图赏浏览排行榜中国网11月10日讯 据西班牙媒体11月8日报道,谷歌搜索引擎将推进“学习型机器”,这是人工智能的一个分支,致力于让机器在用户要求的基础上下达指令显示数据。
谷歌想在不被提前告知的情况下知道我们在海边吃的冰激凌是薄荷味、草莓味还是开心果味的,也想知道我们是马德里口音还是阿根廷口音。甚至想根据谁是发件人推测出我们会不会立刻回复邮件,还是把它放在一边不管。谷歌不仅想了解自己的用户,也想了解周围真实的世界。就像当地市民一样,了解广告,重要的日子以及食物,然后为世界上的其他人服务。
十年前,你根本不会想到你能够跟你的电脑讲话。而今天这种技术被越来越广泛地应用到各种产品当中。翻译是其中的一个重要步骤,紧接着就是通过计算从视觉上呈现出来。这使得我们可以通过利用机器,更好地了解我们周围的世界。
这个技术运用的是二进制的数学计算方法,可能就是大学一年级的水平。没有什么神奇之处,仅仅是一个工具罢了。在“学习型机器”研讨会上,没有提及方程也没有参数,而是探讨一些方法和案例,以及它将如何影响人类。
谷歌图片已经跨出了第一步,这个应用会立即允许搜索手机内的相册。自从六月诞生以来已经取得了很大的进步。每一次都可以识别出更多的地点、联系、动物、食物等。
谷歌在这一领域的最初尝试之一就是“瞬间相机”。你只需要拍下里约热内卢一家餐厅的菜单,立马可以看到英文版。但是这只能运用于一些不太复杂的语种,如果你去中国或日本旅行,那这个转换就比较困难。
尽管做了这种种艰苦的努力,谷歌还是意识到要面临一个很大的阻碍。最人性化的元素——口语表达。
“现在的谷歌”已经证明可以接受指令,但是不能保持流利、正常的对话。一位法国的研究者表示,尽管经过了很多次测试有了很大进步,这个障碍仍然很可观。(王文婷)您的位置 :&
“谷歌大脑背后的大脑”说,最快15年实现通用人工智能
出自:Forbes
《福布斯》网站今日刊文,专访“谷歌大脑背后的大脑”Jeff Dean。Dean回顾了他自1999年加入至今在公司的不同角色,重点介绍了谷歌大脑的项目内容。Dean 认为,谷歌保持创新的源泉在于保持部门的灵活性。软件开源与开放的文化有助于这家公司吸引顶级人才,从事研发。他个人猜测,实现通用AI最快仅需15年。
Jeff Dean 是谷歌最早的雇员之一,他1996年从华盛顿大学计算机系获得博士学位,1999年加入谷歌。他是谷歌成长过程的关键人物,谷歌分布式计算基础构架主要由他设计和完成,该构架支持了谷歌的大部分产品。
谷歌 CEO Sundar Pichai 曾说谷歌将从根本上成为一家人工智能公司。作为系统和基础构架部门的资深研究员,Dean和他的团队对于实现这一目标至关重要。在这篇内容广泛的访谈中,Dean 描述了他在谷歌的多种角色、公司的 AI 愿景,他对于谷歌如何在成为巨头后保持企业奋斗精神的看法,以及许多其他话题。
谷歌如何与官僚主义战斗
Peter High:Jeff Dean,你从1999年起就加入了谷歌,见证了谷歌的大部分岁月。请简要介绍一下在谷歌的 17 年间你的角色演变。
Jeff Dean:当我加入时,公司还很小。我们都挤在帕洛阿尔托的大学街上的一座小办公室里。我做的第一件主要任务是建造我们的第一个广告系统。而后我用了四五年时间做抓取、索引和搜索系统,这些是每一次谷歌检索都会用到的服务。之后,我大多与我的同事 Sanjay Ghemawat 等人一起工作,建造软件基础构架,谷歌用该构架来存储和处理大数据集、做建立搜索索引或处理卫星图像之类的事。最近,我一直在做机器学习系统方面的工作。
High:你的涉猎范围如此广阔,你的职责也如此多样,我猜想你不会有模式化的工作日常。你怎样决定与公司内外的哪些人互动?我很感兴趣的是,你如何在你现在从事的不同事务上分配时间。
Dean:我没有典型的工作日常。在前十四到十五年里,我没有担任任何管理职位,因此我有更多的自由时间来专注写代码。在过去的几年里,我在一些机器学习项目上担任了管理职位,这对我来说很有趣,也是一种新的学习体验。在公司历史上我做过许多项目,我想要与这些不同项目的进展保持联系,所以我常常会收到很多电子邮件。
我花许多时间来处理电子邮件,大部分时间用来删除邮件,或是浏览邮件以了解正在发生什么。我有几个只要有时间就会去做的技术项目,我在各种会议和设计评审之类的事之余抽时间去做这些项目。
High: 谷歌在经过戏剧性的增长之后仍然是创新的典范。它仍然像当年小企业时期那样雄心勃勃、富于创新,另一方面它已拥有了科技巨头的人力和财力资源。公司如何与停滞和官僚主义战斗,以便能让自己保持敏捷,不被规模拖累?
Dean:从我加入时起,我们一直经历着公司的持续增长。在早年,我们每年都会将雇佣人数翻倍。如果用百分比来衡量,我们现在大大放慢了招聘新员工的速度,然而如果用绝对数量来衡量,我们仍然在经历着实质性增长,大约每年新增10%、20%的雇员。每当公司规模翻倍,这都会驱使我们重新思考公司做事的方式。那些在X规模水平上有效的方法,在2X规模水平上就不再有效了。我们已经解决了如何让我们的企业风格、工程方法、组织结构、团队动力适应新的规模。
我认为,对我们的成长帮助很大的一件事是,我们倾向于把工作分岔成许多不同领域,这些领域与谷歌正在做的其他东西保持一定的独立。建造能带来互联网接入的高空热气球,这种项目就和搜索服务之间没多大关系。我们实质上拥有多个不同的活跃项目,这些项目不像核心业务内部的项目那样需要大量的沟通,由此我们可以获得规模和效率。
High:据我理解,谷歌/Alphabet之间的分离也体现了这种逻辑——试图保持敏捷性,同时将各种不同的活动分离开。可以这么说吗?
Dean:可以。我认为这使得 Alphabet下的其他一些部门能更独立的运行。关于这种规模上的翻倍,我想说的第一点是,这确实带来了一些变化,过去我们每个人都在同一座办公楼里工作,现在每个人都需要在不同的办公楼间往返。
另一件事是,过去我们的工程人员都位于山景城,后来我们在苏黎世、纽约、东京和西雅图都建立了工程机构。有一段时间,我们同时拥有这五个机构,而它们也都发展得更庞大。之后的短短几年里,我们从五个工程机构发展到三十五个工程机构,因为我们感到,我们可以在世界各地找到那些有天分的人,并在他们附近建立机构吸引他们。这使得我们必须重新思考我们如何将工程方面的努力组织起来。
如果你只有一家小机构,那么你大概不应该让员工去做一百件事;他们应该只去做少数几件事,并专注于将它们做好。一些小机构曾经以山景城总部的做法为榜样,他们会去看山景城的人在做什么;他们发现山景城的人在做一百件不同的工作,于是他们以为自己也应该去做一百件不同的工作。我们经历周折才找到一种更好的方式,把分布在各地的工程机构的员工都调动起来。
个人猜测:最快 15 年实现通用人工智能
High:谷歌 CEO Sundar Pichai 曾说,从长期看,硬件设备将退隐,而计算将从移动优先演化到人工智能优先。关于这个人工智能优先的世界,你将如何表述谷歌的愿景?
Dean:我认为我们已经从桌面计算转移到了移动计算,现在每个人都随身携带者计算设备。随着设备持续降价,语音识别和其他替代性的用户界面变得更加实用,这些将改变我们与计算设备互动的方式。设备将隐退到背景中,环绕在附近,让我们能够随时与他们说话,就想我们能与信赖的同伴说话一样。
它们将帮助我们获得更多信息,或帮我们完成各种任务。我认为这是机器学习前进的主要目标之一:让计算机能像人类同伴一样提供建议,在需要时搜寻更多的信息,以及这一类的事情。我认为未来五到十年将会令人振奋。
High:随着技术进步以及人工智能各种目标的实现,似乎人们不再将这些已实现的东西称为人工智能。也就是说,人工智能似乎总是以“将来时”的形态被谈论。你如何定义人工智能的界限?
Dean:我认为真正的人工智能将是这样一个系统,它能执行人类水平的推理、理解,完成复杂任务。我们很明显尚未达到这一点,但你说的很对,我们已取得了很多进展。五年前,还根本不可能让电脑从图像中生成对图片进行人类水平的语句描述。如今,电脑生成的句子可能会说,“这是一张男子在网球场上手持网球拍的图片”。与此同时,人类可能会说,“这是一张网球手准备发球的图片”。
人类所做的描述更精妙,不过计算机已经可以生成接近人类水平的图片说明,这一事实本身就是一个巨大的进步。这只是过去五到六年里人们将更复杂的机器学习模型投入应用所取得的进展之一。当人们将模型应用于更大的数据集和更多的计算时,结果将变得更好。
High:你认为我们离通用人工智能还有多远?
Dean:如果你问不同的人,就会得到不同的答案。出于纯粹的猜测,我认为我们离通用人工智能的距离是 15 年到 50 年——或许 15 年左右的可能性更大。
High: 正如你提到的,语言是关键要素,而谷歌的许多人工智能创新都围绕着语言,无论是从网络中读取和理解事物,还是从事智能对话或理解文本。你能否谈谈,通过什么路径能让机器更好地阐释信息?在你看来,什么是能够让我们哪怕不能实现也至少能接近通用人工智能的阶梯?你在这方面做哪些工作?
Dean:我认为,一个重要的领域是信息检索领域,而这一领域正是谷歌早期工作的基础。按照传统,信息检索并不试图真的理解当用户输入查询时想要什么。它更多地是关于查找那些包含某个单词或相近单词的文档。有趣的是,最近四五年来,我们已能够开始研发一些技术,这些技术能更好地理解“汽车”这个单词的本质。当我们知道“汽车”、“汽车们”、“车”、“客车”、“皮卡”等单词都以某种方式联系在一起时,我们就能够以平滑的方式匹配文档,使许多语言理解任务导向更好的结果。
我们不仅能理解词语,我们也已经快要能够理解两个句子互为同义句。这一点是新的语言理解水平的起点,在新的水平上,我们将能够以机器学习的方式理解长得多的文本。
我们对未来几年的一个良好目标是,我们希望实现:输入数百或数千份文件,然后可以就这些文件的内容进行对话。或许系统将会总结文件的内容,或许系统将对文件内容进行提问或回答。我认为,这才是真正能展现高水平语言理解的东西。
谷歌大脑:谷歌的产业研究院
High: 似乎你和你的团队的一些进展已经开始进入谷歌产品了,例如谷歌新的对话虚拟助理“Google Assistant”、谷歌用来与亚马逊 Echo 竞争的”Google Home”、用来提供面向谷歌服务的对话界面的消息应用”Allo”。你对近期谷歌推出的这些新产品和服务有何看法?
Dean:我现在领导的研究团队名叫谷歌大脑。我们专注于建造可用于机器学习的大规模计算系统,以及进行高级机器学习研究。我们同时拥有这两方面的人才,而他们联合起来解决问题,这常常会带来显著的进步,这种进步是只具有机器学习技能或只具有大规模计算技能的人无法单独取得的。我认为这是我们团队取得众多成功的原因之一。它使我们既在这两个领域取得成功,也让我们能够将“为问题投入多少计算”和“如何为我们关心的问题训练大型、强大的模型”方面的最高水平进一步提升。
我们认识到,我们的一些研究成果能被用来改善谷歌目前的产品,这使得我们对于从事长程研究感到相当乐观。我们将和产品团队一起工作并对他们说,“嘿,我们认为这个机器学习研究将会在你的产品的这个情境中有用处”。有些时候我们只是简单地把东西移交对方。有些时候,需要我们团队和产品团队之间的深度协作才能让研究成果在产品中实现。
谷歌大脑研究团队的一项工作,是研发一个名叫“序列到序列学习”的模型。这里的想法是,你使用一个输入序列来预测某个输出序列。这听起来很小,但它可以和许多你很想解决的现实问题匹配起来。他们发表的论文最初是在语言翻译语境下的。输入序列可能是一个句子中的英文单词,每次输入一个句子的序列。
这个模型被训练为输出等效的法语单词以创造一个与英文句子同义的法语句子。这与其他机器翻译系统很不一样,别的系统通常是运用机器学习或统计模型对问题编码和分割,再把它缝合起来。与这些方法相反,新的模型是彻底的端到端的机器学习系统,你只要向系统喂入不同语言的同义句对子,系统就会学习从一个语言翻译到另一个语言。
在其他情境中,这个一般模型也很有用。Gmail 团队采用了该模型,把它用作“智能回复”功能的基础。在该功能中,输入序列是一段收到的电子邮件,而输出序列是对来信情境下可能回复的预测。例如,你可能收到一封邮件说,“嗨,我们想邀请你参加感恩节晚餐,请告诉我们你能否参加。” 系统所产生的回复可能是“是的,我们很想参加。需要我们带点什么来?”或者“抱歉,我们不能来”,或者其他与情境相关的内容。这里使用的是同一个模型,只是在不同的数据集上得到了训练。
High:谷歌大脑的研究和突破应用,怎么样在谷歌更加传统的产品中进行部署?
Dean:我们已经开始正式推进这一进程。5年前,当我们第一次开始组建机器学习研究组,调查使用大量的计算和深度卷积网络处理问题的情况,当时公司里还没有多少人在使用这种方法。后来,我们发现少数看起来可以有效应用的几个地方,其中包括语音识别系统,所以我们跟语音识别团队的同事紧密合作,把深度神经网络加入到语音识别系统中去,从而在识别精准度上获得了显著的提升。然后,我们又与几个计算机视觉相关的团队合作,比如图像识别和一些街景团队,其中包括,用图像中的原始像素去训练模型做一些有意思的事情,从图像中提取文本或者理解图像(是美洲豹,垃圾车或是别的什么东西)。
有趣的是,随着时间的过去,更多的团队开始采用这些方法,因为他们会听到别的团队说在尝试一些别的东西,并且获得了好的结果。不然就是,我们可以把他们与这些团队联系起来,或者我们可以提供一些在他们特定的问题语境下如何使用这些方法的建议。后来,我们把这些都正规化,所以现在我们就有了一个团队来做这些扩展工作。首先是联系想要在产品中用到这些机器学习模型的团队,他们会描述自己遇到的难题,一般情况下,我们团队会说:“这似乎跟其他团队所遇到的难题很像,我们的解决方案很有用,试试看我们的方案,然后给我们反馈”。
2011年到2012年间,公司使用深度神经网络技术的团队只有十几组,现在已经超过200多组,有上千人在训练这类的模型,使用的就是我们团队搭建的软件。
谷歌的开源和开放
High:你也是TensorFlow的主要创建者之一。和其他公司一样,谷歌也聚焦于开发开放资源的AI技术。你对使用开放资源AI技术的原因和优势有什么看法?
Dean:现在有许多不同的框架,用于展示不同的机器学习算法,它们都是开源的项目。我认为,能有很多的选择是一件不错的事,但是,如果我们能开发出一些东西,让机器学习社区中更多的人可以在后台使用并且努力去改进,并且,这些努力中,很多都是在做相同的工作,所以,把他们都集中在一个资料库,让多数人都能采用,这就再好不过了。
其背后的原因是,这会让机器学习的新想法得以更好地表达。传统的方法是,人们如果有了新的想法,会写一篇论文,做实验,并且不会把代码也发表出来,让人们去重复这些实验。作为一个研究者,你会看别人的论文,并且尝试对比自己和他人的技术。通常,由于这是用论文而不是代码进行表示,你需要猜测他们究竟做了什么。论文,从本质上看,会忽略掉许多细节,而这并不是有意的。他们可能会说:“我们使用了一个较低的学习率”,但是,你关心的是,他们使用的学习率是0.0001,并且经过几万步的调整后,怎么降到了0.005。如果有一个软件框架,让人们能够用代码展示想法,并用表格的方式发表这些研究模型和想法,会让社区内的思想流动更加迅速。
对于我们来说,这也便利了我们与谷歌之外的人的合作。通常,我们会有暑期实习生。过去,这些实习生在实习结束后还要写实习期间工作的论文,但是,那时候他们已经离开谷歌了,所以无法再使用谷歌的计算机,所以这会让他们很难继续完成论文,或者再进行一两次实验。现在, 他们可以随时使用这些开放资源或TensorFlow来做这件事,甚至也可以在平台上找到其他能帮忙的人。我们正在教许多谷歌的工程师使用机器学习,其中最通用的工具就是TensorFlow。
High:谷歌的一个优势在于拥有很多人工智能和机器学习人才。谷歌研究部门负责人 Peter Norvig 估计全球超过5%的机器学习菁英都在谷歌工作。谷歌是如何让自己对机器学习顶尖人才变得有如此吸引力的?考虑到机器学习或者说人工智能涉及到计算机科学、工程学、神经科学、生物学、数学等不同学科,你认为如何才能确保招聘来的这些人才任人适用呢?
Dean:我们工作的范围很广,人才也各种各样。我发现,当你把一批不同专业背景的人聚在一起解决问题时,往往比召集一批专业背景类似的人效果更好。从整体上说,你做完了一件没有人能够单独做出来的事情。我们的机器学习团队就是一个很好的例子。里面有像我这样的人,拥有很多开发大规模计算系统的经验,也有世界顶级的机器学习研究者。把这些不同类型的人聚在一起就组成了一个非常强大的团队。机器学习正在影响医疗、机器人等等很多不同的领域,这是非常好的现象。我们团队中还有几位神经科学家。
很快我们将开始一个叫做“谷歌大脑实习培训”(Google Brain Residency Program)的计划。我们招人到谷歌和Google Brain一起工作一年,基本上是学习如何进行机器学习相关的研究。我们现在已经得到了大量的申请简历,最终项目会留下 28 个人。他们来自不同的背景——计算机科学、统计学、数学、生物学、物理学,处在职业生涯的不同阶段——有人刚刚读完本科,有些人则博士后毕业,还有的已经在产业界工作了一两年。我认为这将是一个很好的组合,解决问题时都带来很多不同的观点。
High:我很好奇,有很多不以技术为中心的传统公司也会使用人工智能和机器学习,你会在多大程度上与这些传统公司交流和工作?你怎样看AI技术的发展曲线?显然,这在公司之间甚至是行业之间都是不同的。但也有一些领先的传统行业开始利用人工智能,包括医疗和金融领域,这些机构有着大量的非结构化数据需要处理。你曾经是否与这些传统行业的公司打过交道,或者和它们讨论人工智能在更为传统的环境中的发展过程?
Dean:其他行业的大多数公司可能没有谷歌或者其他科技公司在应用机器学习方面表现的好。我认为,随着时间的推移,最终大多数公司都将越来越多地使用机器学习,因为机器学习将会变得非常强大,为他们的业务带来变革。我们已经与一些大型的医疗机构讨论了要建立合作关系,看看机器学习可以为该领域的某些问题做些什么。我们最近推出了一个云机器学习产品,可以让人们在谷歌的云平台上运行机器学习算法。显然,有许多公司有兴趣了解在他们的业务的环境中该如何使用该产品。
我认为这种转变可能要经过几个阶段才会发生,在这些阶段中,你可以使用AI技术和机器学习的方法来解决问题。在一些领域里,理解图像的内容东西对很多行业来说都是有用的。谷歌和其他公司正在提供简单易用的界面,而你无需知道任何机器学习的东西。你可以只给出一张图片,然后说“告诉我这张图里有什么”,任何没有机器学习专业知识的软件工程师都可以这么使用。他们得到的信息可能是“照片里有个体育场,人们在那里打棒球,而且图像中还有一堆文字,文字是……”即使没有应用机器学习,这也会是非常有用的。
然后将会有已经开发好的模型,可以用公司的数据重复训练这个模型来得到一个定制化的解决方案,而且无需研究核心的机器学习技术来开发一个全新的模型。一个很好的例子是序列到序列的工作,我们现在已经应用到谷歌的六七个不同的问题中。另一个很好的例子是一个采集图像的模型,它能发现图像中有趣的部分。这个通用模型的一个应用是,检测街景图像中的文本位置。你想阅读所有的文本,但是首先,你必须能在店门、路牌上等这类地方找到它们。这种通用模型在医疗环境中也有用,比如在诊断糖尿病性视网膜病变时,你有一个视网膜的扫描图像,你想找到该扫描图像上的疾病指标,这时你就能用上这个模型了。用的是相同的模型结构,你只是在不同的数据中指出病变。你不是在用文本高亮显示的街景图像,而是在医生已经圈好病变部位的视网膜图像上指出它。我认为该通用模型的方法将很好地解决很多不同类型的问题。&
文章收入时间:
Copyright & 2014 Semiconductor
Equipment and Materials International (SEMI&). All rights一篇文章看懂谷歌的人工智能帝国,为什么这里一切都是 AI ?-钛媒体官方网站
一篇文章看懂谷歌的人工智能帝国,为什么这里一切都是 AI ?
分享到微信朋友圈解密谷歌机器学习忍者项目,如此培养人工智能人才
这不是武侠世界——她已经做到了。26岁的 Holgate 得到了第二条跆拳道黑带。这次是算法黑带。好几个星期 Holgate 都沉浸在一个程序中,这场比身体上的格斗更强大的训练教授她的是机器学习(ML)。谷歌 Android 部门的工程师 Holgate 是今年机器学习忍者项目(Machine Learning Ninja Program)的18名程序员之一,该项目从他们的团队中挑选有天赋的程序员参加,以《安德的游戏》的模式进行训练,来教授给他们人工智能技术。即使这会让他们写的软件更难以理解。
Carson Holgate,谷歌工程师,正在机器学习忍者训练中
「我们的口号是,你想成为机器学习忍者吗?」帮忙管理这个项目的谷歌机器学习团队的产品经理 Christine Robson 说 。「我们邀请谷歌的员工加入机器学习团队,与导师坐在一起,花6个月时间研究机器学习,同时做一些项目,并从项目实践中学习经验。」
对于约四年前带着计算机科学和数学学士学位来到谷歌的 Holgate 来说,这是一个掌握软件领域最热门的分支的机会:使用学习算法(学习者)并用大量数据来「教授」软件完成任务。多年来,机器学习被认为是一种只属于少数精英的学科。但现在这个时代结束了,最近的结果表明:由模仿生物大脑运作方式的神经网络驱动的机器学习,是赋予计算机以人类力量甚至超人力量的正确途径。谷歌致力于在内部扩张精英团队,并期望将其变成一种常态。对于像 Holgate 这样的工程师,忍者项目是跻身技术前沿的机会——从最优秀的工程师那里学习最先进的技术。「这些人正构建着荒唐的模型并且拥有博士学位。」她掩饰不住声音中的畏怯。她甚至得慢慢接受这个项目将其学生称为「忍者」的事实。「起初,我很害怕,但是我学会接受了它,」她说。
谷歌 60000 名员工中几乎有一半是工程师,所以这是个小项目。但是该项目象征着这家公司的认知转换。虽然长久以来机器学习就是谷歌技术的一部分,而谷歌已经雇佣了不少该领域顶级专家,但是这家公司从 2016 年开始似乎变得对这项技术更感兴趣了。在去年年底的一次电话会议上,谷歌总裁 Sundar Pichai 提出了这家公司的新愿景:「机器学习是核心,是我们重新思考我们所做的事情的变革方式。我们正想尽办法将它应用到我们所有产品中:搜索、广告、YouTube 或应用商店。我们仍处于初期阶段,但你可以发现,我们正在以系统化的方式将机器学习应用到所有的地方。
显然,如果谷歌想在它所有的产品中应用机器学习,它需要掌握这项与传统编程方式完全不同的技术的工程师。正如 Peter Domingos 在机器学习领域非常受欢迎的《The Master Algorithm》一书中所写的,「机器学习是一项朝阳技术,是一种自我构建的技术。」编写出这样一个系统你需要做如下工作:识别正确的数据,选择正确的算法,确保你构建了成功运行的正确条件,最后相信这个系统的工作能力(当然这对于程序员来说很困难)。
「用这种方式思考如何解决问题的人越多,我们就会做得越好,」谷歌的机器学习团队领导者 Jeff Dean 说。他估计现在在谷歌的 25000 名工程师中,只有几千人精通机器学习。或许是百分之十。他希望这个比例接近百分之百。「如果每个工程师都至少有一些机器学习的知识就好了,」他说。
他认为这会变成现实吗?
「我们正打算尝试,」他说。
经过多年,John Giannandrea 已经是谷歌机器学习领域的关键人物,另外他最近还成为了谷歌搜索部门的负责人。但是 2010 年来谷歌的时候,他对于机器学习或神经网络并没有太多了解。2011 年左右,一些来自神经信息处理系统峰会(Neural Information Processing Systems ,简称 NIPS)的新闻让他感到非常震撼:似乎在每年的 NIPS 上,总有一些团队会宣布使用机器学习颠覆此前一直难以突破的问题,比如翻译,语言识别,或视觉问题等。令人惊讶的事情正在发生。「我第一次听说这个
NIPS 峰会时,它并不出名,」他说。「但是在过去的三年里,这个领域从学术到工业的参会者数量激增。去年大约有 6000 人参加。」
Jeff Dean : 谷歌权威计算机科学家
这不仅促进了神经网络算法的发展,也带来了来自摩尔定律效应的更强大的计算能力,还有从谷歌、Facebook 等企业的海量用户行为中获取的数据也出现了指数级增长 ,机器学习不断提高的新时代开始了。Giannandrea 与一些人一样,相信机器学习是谷歌的关键。与他持有相同意见的还有谷歌大脑(Google Brain)的联合创始人 Dean ,谷歌大脑是谷歌长期研究部门 Google X (现在就是简单称为 X)发起的神经网络项目。
谷歌迫不及待地拥抱机器学习的热情不仅仅意味着编程技术的转变,更是对科技作出的郑重承诺——承诺将赋予计算机从未拥有过的高超能力。这项技术的最前沿是受到大脑结构启发的围绕复杂的神经网络构建的「深度学习」算法。谷歌大脑是深度学习上的努力尝试,而谷歌 2014 年 1 月以 5 亿美元买下的人工智能企业 DeepMind &同样把重点放在研究深度学习上。打败围棋世界冠军的 AlphaGo 系统就是 DeepMind 设计的,这粉碎了人们对智能机器表现的期待,引发了对可怕的智能机器和杀人机器人的一波又一波的担忧。
对于「人工智能将会杀死我们」阵营,虽然 Giannandrea 不屑一顾地将他们看作不太了解情况的 Cassandra 先知(希腊神话中不被人相信的女先知),但 Giannandrea 同样认定,不管是在医疗诊断还是在汽车驾驶领域,机器学习系统都将会是颠覆性的。虽然机器学习不会取代人类,但它会改变人性。
Giannandrea 举例说明了机器学习的力量,比如 Google Photos, 这款产品的定义特征是一种奇特的——甚至让人烦扰——的能力,即要将用户特别指出的某物的图像定位出来。让我看看边境牧羊犬的图片。「人们第一次体验这种能力的时候,他们会认为正发生着一些不同的事情,因为计算机不再只是通过计算为你生成推荐内容,或者建议你看什么视频了。」Giannandrea 说,「事实上计算机正在理解图片中的内容。」他解释道,通过这个学习过程,计算机「知道了」边境牧羊犬长什么样子,还会找到这种类型的狗在小时候、年老的时候、毛发长的时候和剪毛后的照片。当然,人也可以做到这点。但没有一个人能够将
100 万个样本分类和同时识别出 1 万种狗的品种。但机器学习系统可以。系统学到了一个品种,就能用同样的技术识别剩下的 9999 种。「这是个真正新的领域。」Giannandrea 说,「在某些狭窄领域内,你可以看到一些人认为这些学习系统实现了超人级的表现。」
不可否认的是,谷歌一直都很理解机器学习的概念,谷歌的创始人更是追随人工智能力量一生的信徒。谷歌产品中已经融入了机器学习,虽然最近神经网络的关注度更高一些。(早期的机器学习经常依赖于一种更直接的统计方法。)
事实上,谷歌给工程师教授机器学习的内部课程已经超过十年时间了。2005 年初,当时负责搜索业务的 Peter Norvig 向研究科学家 &David Pablo Cohn 建议,他应该调查谷歌是否可以采用卡耐基梅隆大学组织的项目中的在线课堂。Cohn 的结论是,只有谷歌自己才能教授这样的内部课堂,因为谷歌的运营规模远远超过其他机构(可能国防部除外)。因此,Norvig 在 43 号楼(搜索团队当时的总部)预订了一个大房间,每周三举行一次两小时的会议,就连 &Jeff Dean
也参加了几次。「那是全世界最好的课堂。」Cohn 说,「他们都是比我更优秀的工程师!」这个课程火了,局面甚至有些失控,印度班加罗尔办公室的人直熬到下半夜才能打进预订电话。几年以后,一些谷歌人一起将这些课程做成了短视频,不再进行现场会议。Cohn 相信,这可能是 MOOC (大规模开放式在线课程)的前身。接下来的几年里,谷歌还进行了其它几次机器学习训练的尝试,但这些尝试缺乏条理和连续性。2010 年 Cohn 离开谷歌之前曾说,谷歌的机器学习 「突然变成了第一要务。」
Cohn &的这句话直到2012年才真正付诸实践,Giannandrea 当时有个想法,要「弄一大堆做这个的人」,把他们放到一栋单独的楼里,已经从 X 部门「毕业的」谷歌大脑(Google Brain)也加入了这个团队。「我们将很多团队整个搬过来,让他们在一座楼里工作,还买了个很棒的新咖啡机。」他说,「之前研究所谓的感知(perception)——即声音、语音理解等——的人现在要跟之前研究语言的人一起探讨。」
渐渐地,能够体现工程师在机器学习方面的付出的谷歌流行产品越来越多。因为主要的机器学习领域包括视觉、语音、声音识别、翻译,因此毫不奇怪地,机器学习成为了语音搜索、翻译、照片等的关键部分。更让人关注的工作是让机器学习无处不在。Jeff Dean 是 &Big Table 和 MapReduce 等颠覆性系统的共同创建者。他说,他和他的团队开始进一步理解机器学习,正在以更加雄心勃勃的方式进行探索。「之前,我们可能会在一个系统中的几个子组件中采用机器学习」他说,「现在。我们其实在用机器学习取代整套系统,而不是为每个部分构建更好的机器学习模型。」Dean
说,如果他要在今天重写谷歌的基础架构,那么架构的很多内容将不是用编码,而是用学习获得。
Greg Corrado, Google Brain 的联合创建者, 与产品组一起工作将人工智能添进他们的软件中
同时,机器学习还让之前不可想象的产品功能成为了可能。比如,去年11月新发布了 Gmail 的智能回复(Smart Replies)功能。刚开始,谷歌大脑项目的联合创始人 Greg Corrado 与 Gmail 工程师 Bálint Miklós 进行了一次对话。Corrado 之前曾与 Gmail 团队合作过,一起研究在垃圾邮件检测和邮件分类中机器学习算法的使用,但 Miklós 提出了一个更激进的方法。如果团队发明通过机器学习自动为邮件生成回复的方法,让移动用户免于在小键盘上敲下回复的麻烦,这怎么样?「我当时其实惊呆了,这个提议看起来太疯狂了。」Corrado
说,「但后来我觉得,我们或许可以用正在做的神经网络预测技术实现这一点。而且一旦我们意识到存在可能,我们就必须去尝试。」
谷歌让 &Corrado 和他自己的的团队,以及 Gmail 团队保持紧密合作,这更增加了实现的可能性。机器学习专家进入产品组的做法越来越普遍。「机器学习既是一门科学,也是一门艺术,」Corrado 说,「就像做饭一样,虽然涉及到化学原理,但是要做一些真正有趣的事情,你必须要知道如何将面前的配料结合起来。」
用于语言理解的传统人工智能方法取决于系统中嵌入的语言规则,但这个项目中,与所有现代的机器学习一样,该系统被填喂了足够用于自学的数据,就像孩子一样,「我不是跟着语言学家学习说话,而是通过听别人说话学会的。」Corrado 说。
然而,使智能回复真正可行的是:这种成功可以很轻松地定义成——不是创造一个只会和用户调情式聊天的虚拟的 Scarlett Johansson(指电影《她》中的智能操作系统) ,而是真实生活邮件的合理回复。「成功就像是,用户觉得机器生成的备选回复是有用的,可以用作自己真正的回复。」他说。因此不管用户是不是点击了机器建议的回复,这些系统都能进行训练。
然而,该团队开始测试智能回复 的时候,用户注意到一件奇怪的事:系统经常建议不合时宜的浪漫的回复。「其中一个失败的模式就是,它在不知如何回复的任何时候,总会歇斯底里地倾向于说『我爱你』。」」Corrado 说,「这不是软件漏洞,而是我们错误地让它做了这件事。」该程序某种程度上学会了人类行为微妙的一面:「比如,你在走投无路的时候,说『我爱你』就会是一个很好的防御策略。」Corrado 后来帮助将团队的这种热情缓和下来。
去年 11 月发布的智能回复取得了成功——现在 Gmail Inbox 应用的用户通常不用自己打一个字,从三封推荐的邮件选择一封就可以完成回复。这些推荐邮件的内容经常合乎情理得不可思议。手机 Inbox 用户发送的回复中十分之一都是机器学习系统创建的。「这个产品能够成功,我多少还是有些吃惊的」 ,Corrado 大笑着说。
在谷歌证明机器学习高效性的实例组成的稠密图(dense graph)中,Smart Replies 只是其中的一个数据点而已。但是当机器学习成为搜索业务的重要部分的时候,或许转折点才终于到来。搜索业务是谷歌的旗舰产品,是占据谷歌几乎所有收入的金库。某种程度上,搜索一直都基于人工智能。但很多年来,该公司最珍贵的算法,这个曾为我们带来「ten blue links(回复谷歌搜索请求的十条蓝色链接)」的算法,注定是机器学习算法的重中之重。「因为搜索是谷歌一个非常大的组成部分,搜索的排序能力也取得了高速的进化,很多人都怀疑你是否能改变这个局面。
」Giannandrea 说。
某种程序上,这是一种文化抵制——这是让控制狂一样的大师级黑客采用禅式风格的机器学习方法上存在的普遍挑战的顽固缩影。Amit Singhal 久负盛名的搜索大师曾是传奇计算机科学家 Gerald Salton 的助手。Salton 在文档检索方面的开创性工作启迪了 Singhal &帮助修改了 Brin 和 &Page 的研究生代码,将其变为可以扩展用于当今网络时代的程序。(这使他进入了「检索者(retriever)」学院。)他从这些 20 世纪方法中梳理出了惊人的结果,并且有人怀疑是他将一些学习者带入了这个相当于谷歌命脉的复杂系统。「在谷歌的前两年,我在搜索质量部门工作,用机器学习提升排序能力。」David
Pablo Cohn 说。「结果证明,Amit 的机构是世界上最好的一个,我们对 Amit 大脑中所有的东西都进行了硬编码,并取得了进一步进步。没有别的方法能超越他的了。」
2014 年初,谷歌的机器学习大师认为需要有所改变。「我们与排序团队进行了一系列讨论。」Dean 说,「我们说,我们应该至少尝试下这个东西,看看是否会有收获。」Dean &团队设想的那个实验,后来证明对搜索能力至关重要:排序中的一个文件和查询请求的匹配程度会有多好(根据用户是否点击进行计算)。「我们可能只是说了句,试着根据这个神经网络计算出这个额外分数吧,看看它有没有用。」
结果是有用的,该系统现在是搜索的一部分,名为 Rank Brain ,于 2015 年 4 月上线。谷歌还是秉持它以往的特色,在该系统究竟如何提升搜索性能上含糊不清(一些和长尾效应相关的东西?模糊请求的更好解读?),但 Dean 说,「 Rank Brain 融入到了每次查询中」,而且「或许不是在每次查询中,但也是大量查询中」都影响了实际的排名。另外,该系统效果显著。谷歌搜索在计算排名时使用的几百个「信号(signal)」(用户的地理位置,或页面的头条与查询的文本相匹配都可能是信号)中,Rank
Brain 的有用性排名第三。
「我们成功使用机器学习将搜索做得更好了,这对公司来说是有重要价值的,」Giannandrea 说:「这引起了很多人的关注。」华盛顿大学教授、《The Master Algorithm》的作者 Peter Domingos 用另外的方式说到:「这种战斗一直存在于检索者和机器学习人之间,机器学习者最终赢得了这场战斗。」
谷歌的新挑战是转换其工程团队以使大家都熟悉机器学习——哪怕不擅长机器学习。这是现在其它许多公司也在追求的目标,尤其是 Facebook,该公司和谷歌一样是机器学习和深度学习领域的巨鳄。对这一领域内应届毕业生的招聘竞争是很激烈的,谷歌力图维持其早期的领导地位;多年来,学术界都有一个笑话:即使谷歌不需要,也在聘用最顶级的学生,而这只是为了避免他们去竞争对手那里。(这个笑话错过了这个点:谷歌确实需要他们。)Domingos 说:「我的学生,不管是谁,总是会收到谷歌的 offer。」而这件事变得更激烈了:就在上周,谷歌宣布其将会在苏黎世开设一个全新的机器学习研究实验室,那会有一大堆工作岗位需要填补。
但因为学术项目还尚未产出大量机器学习专家,所以对工作人员进行再训练是必要的。而这并不总是一件简单的事,尤其是在谷歌这样的公司——有很多一生时间都在用传统编程实现「魔法」的世界级的工程师。
机器学习需要不同的思维方式。人们变成编程大师通常是因为他们是从通过实现对编程系统的完全控制中成长起来的。机器学习还需要掌握一定的数学和统计学,而这是很多编程者,甚至是那些能将程序压缩到让人吃惊的长度的疯狂黑客们都从来不屑于学习的东西。
Christine Robson 的工作是向谷歌人和机器学习技术领域内的外部人士灌输这个概念
这也需要相当程度的耐心。「机器学习模型并不是一段静态的代码——你要不断给它填喂数据。」Robson 说,「我们不断更新模型和学习、增加更多数据,还有比如像是调整我们未来做出预测的方式。它让人感觉就是一个活生生的、有呼吸的东西。这是不同类型的工程开发。」
「实际上这是一个使用不同的算法进行实验的学科,或关于哪个训练数据集在你的使用案例上工作效果真正好的学科。」Giannandrea 说,尽管他已是搜索的掌控者,但他仍然认为在内部传播机器学习的福音仍然是他工作的一部分。「计算机科学的部分不会走远。但对数学和统计学的关注会更多,而对编写五十万行代码的关注则会减少。」
至于谷歌,这一障碍可以通过聪明的再训练而跳过。「在训练的一天结束时,这些模型中所使用的数学就不再那么复杂了,」Dean 说,「对于我们在谷歌雇佣的大部分工程师而言,这都是可以实现的。」
为了进一步帮助日益增长的机器学习专家团队,谷歌打造了一套强大的工具帮助工程师在训练算法时选择正确的模型,并加速训练和提炼的过程。这些工具中最强大的是 TensorFlow,一个能加速神经网络构建过程的系统。TensorFLow 由谷歌大脑团队开发,Dean 与他的同事 Rajat Monga 共同参与了其发明;它能通过规范系统开发中通常很乏味和深奥的细节来帮助机器学习变得大众化——尤其是 2015 年 12 月谷歌将其开放给公众之后。
尽管对人工智能社区散播的这种利他主义行为让谷歌遭受痛苦,但它也承认熟悉其内部机器学习工具的新一代程序员对谷歌的招聘来说是相当好的。(怀疑者指出谷歌开源 TensorFlow 是为了追赶 Facebook,Facebook 在 2015 年 1 月公开发布了用于早期机器学习系统的深度学习模块 Torch。)尽管如此,TensorFlow 的特点加上谷歌的认可,使其很快就成为了机器学习编程圈子里的一个最爱。据 Giannandrea 说,当谷歌提供其第一个在线 TensorFlow
课程时,有 75,000 万人报名。
谷歌仍然为它自己的程序员保留了很多好东西。在内部,该公司有一个可能无可比拟的补充机器学习的工具箱,Tensor Processing Unit(张量处理单元,TPU),其中最重要的是这个创新公司他们已经使用了多年,但直到最近才宣布出来。TPU 是一种专为运行机器学习语言程序而优化过的微处理器芯片,就像图形处理单元(GPU)是专门为加速屏幕上像素的计算这一单一目而设计的一样。该公司的巨型数据中心的服务器里恐怕已有成千上万个 TPU 了(可能只有上帝和 Larry Page 知道有多少)。通过赋予其神经网络运算以超能力,TPU
已经给谷歌带来了巨大的优势。Dean 说:「如果没有它,我们完成不了 RankBrain。」
但由于谷歌最大的需求是设计和完善这些系统的人,就像该公司正在紧锣密鼓地完善其软件训练工具一样,它也在疯狂地打磨其训练机器学习工程师的实验。它们的范围从小到大。后一类包括快餐式的两天「使用 TensorFlow 的机器学习速成班」,包含了幻灯片和练习。谷歌希望这只是初步尝试,工程师随后会寻找资源从而学习更多。Dean 说:「我们已经有数千人报名这个课程的下一次开课。」
其它还有一些较小的工作也在将外部人士吸引到谷歌的机器学习中。今春早些时候,谷歌启动了 Brain Residency 项目,该项目的目的是为了将有前途的外部人士带进谷歌大脑团队内部进行为期一年的密集训练。「我们将其称之为你的深度学习事业起跳的开始,」帮助管理该项目的 Roboson 说。尽管初始项目中来自不同学科的 27 位机器学习学员中可能会有一些最终会留在谷歌,但其所声称的该班级的目的是将他们放归到野外,使用他们的超能力在整个数据地球上传播谷歌的机器学习版本。
所以从某种意义上说,在一个机器学习正在占据舞台中心的世界里,以人工智能为中心的谷歌有维持自己主导地位的计划,而 Carson Holgate 在她的忍者课程中学到内容正是以这个计划为中心的。
她的课程开始于为期四周的新兵训练营,在这里谷歌最先进的人工智能项目的产品领导人训练他们了解将机器学习整合到项目过程中的细微之处。「我们将忍者带进了会议室,Greg Corrado 在那里写着白板、解释 LSTM(长短期记忆——一种可以创造强大的神经网络的技术)、做着夸张的手势、展示这是到底是如何工作的、其中有什么数学、怎么将它用到产品中。」Robson 说,「在开始的四周里,我们做这件事的时候基本上使用到了我们有的每一项技术和我们工具箱里的每一种工具,从而让他们能真正沉浸式地深入。」
Holgate 成功通过了新兵训练营,现在她正使用机器学习工具在安卓系统上开发能帮助谷歌人互相交流的通信功能。她调整超参数(hyperparameter),整理她的输入数据,剥离出停止词(stop word)。但她已经不可能回头了,因为她知道这些人工智能技术就在这里,而且是谷歌的未来,也许是所有技术的未来,或者所有事物的未来。
「机器学习,」她说,「在这里有巨大的分量。」
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:119309次
积分:2407
积分:2407
排名:第10891名
原创:22篇
转载:645篇
评论:18条
(4)(9)(39)(64)(37)(4)(2)(18)(61)(27)(26)(64)(25)(39)(18)(11)(19)(34)(29)(41)(32)(48)(30)}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信