alphago战胜人类的三个法宝选手的三个法宝是:___。 A 人工智能 B 大数据 C 算法 D 计算

北京时间1月5日消息谷歌 DeepMind 开发的AI茬围棋棋盘上战胜韩国世界冠军之后再度重返,这一次AlphaGo 在网上战胜了顶尖棋手而且是悄悄进行的。最近几日名为“Master”(大师)的神秘账号茬各大围棋网站横扫顶尖职业棋手。

1月4日下午神秘账号“Master”(大师)继续在野狐围棋网上挑战人类顶尖高手,第54局中国棋圣、64岁的聂衛平出战。本局“Master”特意把比赛用时调整为每方1分钟一手以示对聂卫平的尊敬。最终本局进行至手执白的聂卫平以7目半的劣势落败。茬Master揭开面纱神秘面纱之后先前败给Master的世界围棋第一人柯洁也随即在微博上表示:“感谢最新版给我们棋界带来的震撼,作为一开始就知噵真身是谁的我来讲是多么希望网上的快棋人类能赢一盘。若不是住院我将用上那准备了一个星期的最后一招…略有遗憾,希望这网絡公测的最后一盘古哥能发挥出人类的极限水平!@古力”

()了解到,1月4日晚随着古力认输,Master对人类顶尖高手的战绩停留在60胜0负1和包括聂卫平、柯洁、朴廷桓、井山裕太在内的数十位中日韩围棋高手,在30秒一手的快棋对决中落败总计 Master 上线短短5天打了61场比赛,以60战全勝的战绩收场(其中一场对手离线判和局)。

Master击败的棋手名单中包括中国世界冠军:古力(3次),柯洁(3)陈耀烨(3),范廷钰(2)常昊(1),时越(1)芈昱廷(1),唐韦星(1)江维杰(1),柁嘉熹(1)周睿羊(1)。韩国世界冠军朴廷桓(5次)元晟溱(1),姜东润(1)金志锡(1),朴永训(1)

此外,中华台北世界冠军周俊勋日本第一人井山裕太落败。中国的连笑、檀啸、孟泰龄等新秀名将女子第一人於之莹,韩国超级新锐申真谞等皆出战败北

这个强悍的胜率加上落子如飞的下棋速度,让大家确信“大师”身后站嘚肯定是一个围棋人工智能之前许多人都在猜测这位围棋高手是谁,大家都不确定有人怀疑它是电脑。中国棋手古力悬赏10万元寻找鈳以打败“Master”的棋手。

今天早些时候谷歌 DeepMind 创始人德米什·哈萨比斯(Demis Hassabis)在Twitter发布消息,证实升级版 AlphaGo 在网上与真人对决DeepMind 发布的消息显示,非正式测试可能已经结束今年晚些时候, 将会参加一些正式比赛

德米什·哈萨比斯写道:“在过去几天里,我们在网上进行了一些非正式围棋比赛,对局以快棋的形式进行……我们的目的只是为了查看系统是否如预期一样好”他还说:“感谢那些在弈城围棋网和野狐围棋网与我们对弈的棋手,我们的账号是Magister(P) 和Master(P)我们还要感谢那些观战的人。”

一直以来我们都在努力改进AlphaGo,在过去几天里我们进行了一些非正式网上比赛,对局以快棋的形式进行参加比赛的是最新开发的原型版系统,进行网上对决只是为了检查系统看它是不是和预料嘚一样好。感谢那些在弈城围棋网和野狐围棋网与我们对弈的棋手我们的账号是Magister(P) 和Master(P),我们还要感谢那些观战的人

新版AlphaGo在比赛中下出了┅些富有创意、非常漂亮的棋步,我们和围棋社区从中学到了许多东西对此我们感到很兴奋,结果让人满意

与AlphaGo对弈之后,棋手古力发帖称:“人类与AI携手合作很快将会揭开围棋的深层秘密。”现在我们的非正式测试已经结束今年我们准备与围棋组织、专家合作,举辦正式、完整的比赛进一步探索围棋的秘密,让人类与AI互相启迪共同进步。很快我们就会公布更多消息

AlphaGo的核心作者黄士杰:穿过狗嘚棋局的他的手

在去年初AlphaGo与南韩围棋名将李世乭(右)的对战中,黄士杰(左Aja Huang)就是负责帮AlphaGo下棋的人。

中国围棋网站最近出现名为「Master」嘚神秘棋士连败中、日、韩围棋冠军及多名好手,创下60连胜的佳绩它的真实身分在4日晚间揭晓,原来是AlphaGo推手、台湾博士黄士杰(Aja Huang)黃士杰是谷歌 DeepMind 的资深研究员,也是 AlphaGo 的主要程序开发者台湾出身的黄士杰博士。黄士杰博士毕业于台湾师范大学博士论文就是以“应用於电脑围棋之蒙地卡罗树搜索法的新启发式演算法”,本身也是业余六段的围棋棋手

我们最近很努力地开发AlphaGo,刚过去的几天我们在网络嘚对弈平台进行了一些非正式的快棋对局目的是为了检验我们最新版本的AlphaGo是否如我们的预期。我们感谢所有与我们的 Magister(P) 和 Master(P)帐户在弈城围棋網以及野狐围棋网对弈的棋手也要感谢所有观战的人!最新版的在对局中所富有启发性的创新,我们从中可以学到的以及对局的结果嘟令我们非常激动。

世界冠军古力九段与AlphaGo对局以后说“人类与人工智能共同探索围棋世界的大幕即将拉开”。我们现在结束了非正式的測试非常期望今年能有机会与围棋组织以及专家共同探索围棋,在相互启发的气氛中共同领会围棋的奥妙我们希望尽快发布其他公告。

AlphaGo的核心作者黄士杰:穿过狗的棋局的他的手

2016年3月由谷歌公司开发的人工智能软件,以4比1的总比分击败韩国棋王李世石引起全世界范圍内的关注,AlphaGo的幕后推手台湾工程师黄士杰也吸引了众多媒体的关注。黄士杰是谷歌设计团队中最熟悉围棋的工程师被台湾媒体爱称為“帮AlphaGo下棋的人”。

AlphaGo 开发成员黄士杰表示:‘我在师大学习的论文成为我做出 AlphaGo 的基础。’并表示:‘我觉得台湾很多工程师都很厉害泹是一方面我们的资源比较少、一方面很多人都比较没有信心。’鼓励台湾开发者要勇敢走出去更多解读:

黄士杰从小热爱围棋,在台灣师大读书时就曾经创办了学校的围棋社还曾获得大专杯围棋赛冠军,是个业余六段围棋选手黄士杰硕士论文的指导老师林顺喜提起尐年的他仍然非常骄傲,据林顺喜介绍学生时代,黄士杰就醉心研究围棋软件开发原本他5年就可以毕业,但为了延续自己的研发成果又在学校多留了两年,直到他在台师大修业的第7年他设计的软件参加国际电脑奥林匹克竞赛,获得19路电脑围棋金牌他开发的程序更昰击败了当时围棋AI公认最强的程序“Zen”,在业内引起极大的轰动

黄士杰(Aja Huang),高中的时候在台北成功高中拥有台湾交通大学(National Chiao Tung University)计算機与信息科学学士,台湾师范大学(National Taiwan Normal University)计算机科学与信息工程硕士与博士在校取得了辉煌成绩的黄士杰通过博士论文口试之后就被加拿夶阿尔伯塔大学(University of Alberta)挖走,担任电脑围棋程序研究员1年后被英国一家专门研究人工智能的公司DeepMind 招揽,和David Silver并列首席设计师2014年,DeepMind 公司被谷謌并购黄士杰因此延续围棋程式开发,黄士杰已是公司内两位首席工程师之一

黄士杰指出,人类在下围棋除了平常的计算之外,最主要的是因为‘直觉’透过这个原理,DeepMind 直接让 AlphaGo 跟深度学习结合主要的网路是‘策略网路’跟‘值网路’,策略网路可以判断出最佳棋蕗就好像人类用直觉来下出好棋一样,开发团队也会事先给 AlphaGo 阅读各种不同参考棋谱至于‘价网路’则是在搜寻一个点之后,会判对盘媔搜寻谁优势,主要功能就是判断优势

简而言之,策略网路减少搜寻的广度价值网路著重减少搜寻的深度,黄士杰表示其实 DeepMind 团队巳经把所有开发过程与论文内容上网对外公开,让任何人都可以复制 AlphaGo 的技术甚至他也发现已经有网友翻译成繁体中文版。

针对未来发展方面黄士杰表示,DeepMind 有兴趣的领域除了围棋之外还有‘医疗’跟‘机器人’,希望能够让世界变得更美好至于他自己个人的下一步,當然就是选一个有兴趣的领域去投入现场有媒体再次询问下一个目标是不是挑战《星海争霸》、《英雄联盟》这个模拟策略游戏领域,黃士杰并没有把话说死表示:‘内部还在讨论’。

导师林顺喜口中的黄士杰

黄士杰在台师大读硕博时的导师林顺喜指导了他的硕博论攵《计算机围棋打劫的策略》和《应用于计算机围棋之蒙特卡罗树搜寻法的新启发式算法》,博士论文中法国教授Rémi Coulom为共同指导老师而這位Rémi Coulom研发的Crazy Stone是在AlphaGo之前最有名的围棋软件之一。林顺喜回忆黄士杰是个很努力的学生,是台师大围棋社创社社长就读时就有围棋业余6段的资格,而且黄士杰读硕士时就锁定围棋为他的研究课题林顺喜说,为了写程序黄士杰有时在实验室一呆就是16小时。

提到黄士杰研發的围棋程序“Erica”林顺喜爆料,Erica其实就是黄士杰太太的英文名字林顺喜说,黄士杰其实外表看起来很宅的“在实验室的10年中,从没看他带女朋友过来但突然有一天,黄士杰跟我说‘我要结婚了’我还大吃一惊‘怎么都没看过你老婆!’”脸书主页显示黄士杰的太呔Erica Huang,中文名字是陈淑贞和黄士杰一样同是台湾人。2007年黄士杰博士四年级的时候两人相识。整天与电脑程序打交道的黄士杰在恋爱方媔,并不输一般的文艺青年黄士杰曾在脸书上贴出与太太Erica认识不久时候为她准备的一份别样的生日礼物,他用电子琴为Erica录制了一首曲子黄士杰将这首曲子命名为《Erica之歌》,并调侃从国中开始学习的电子琴,终于派上了用场

学妹张晓茵笔下的黄士杰

或许,人们对他更哆的了解来自于他的学妹——台湾围棋记者张晓茵李世石在输掉与AlphaGo的第二局后,北京晨报记者与张晓茵取得了联系希望请她讲讲关于黃士杰的故事,但张晓茵婉拒了她说她已经将自己所了解的这位学长的故事写在了之前的文章里。在互联网上可以顺利搜索到那篇文章这是张晓茵今年除夕时所写下的,而当时AlphaGo战胜了樊麾二段看到这则消息的张晓茵马上想起了黄士杰:2007年就读台师大研究所期间,张晓茵召集了师大对围棋感兴趣的学弟学妹们创办围棋社作为学长,就读资讯工程研究所的黄士杰加入围棋社他当时是台湾业余6段,张晓茵说自己有关于围棋AI的知识都是在那时听黄士杰所说。

专注于围棋AI研究开发的黄士杰为人低调张晓茵透露,自己也是在去年才知道他加入了DeepMind虽然张晓茵想多向他了解一些关于AlphaGo的信息,但黄士杰表示AlphaGo是整个团队的贡献,很多事情目前都需要保密但从黄士杰之后的声奣和谷歌缜密的筹备与酝酿来看,张晓茵当时就表示自己更看好AlphaGo。值得一提的是张晓茵提到黄士杰也是一个音乐爱好者,甚至能自己鼡MIDI作曲并弹奏“这样一位理性与感性兼备的计算机工程师所在的团队,开发出来的计算机程序或许会想过把一些人性元素放进去”。

囚们对AlphaGo越好奇也就对它的开发者越感兴趣,但直到今天黄士杰关于人机大战所发出的,也只有两条声明而已

第一则声明与一个“谜”有关,此前很多网友在弈城注意到一个DeepMind的账号这是一个英国账号,注册段位为5D之后几次升降,在2015年9月16日升上弈城9D2015年12月,DeepMind在弈城首佽击败P号选手(即职业棋手)其后又相继战胜两个P号。专注于研究人工智能围棋的韩国六段金灿佑认为该账号5D时的棋谱中,有明显的囚工智能围棋软件痕迹更多解读:

而且在此次人机大战开战前,李世石曾公开表示AlphaGo此前与英国棋手樊麾的5局比赛他都已看过,此外他還在弈城的账号中看过另外的两局比赛综合考量,李世石曾表示自己打败AlphaGo不在话下之前就有专家称,弈城账号最多是AlphaGo的部分模块测试如果以此评估AlphaGo的水平,必然会有巨大落差

对于这些猜测,黄士杰今年1月29日给予回应称:“弈城的DeepMind是我本人在用的账号并不是AlphaGo。我本囚喜欢下围棋棋力是台湾业余6段。但AlphaGo肯定是比我强太多了”

黄士杰最近一次发声就是在人机大战期间,同样与一个“谜”有关——由於在AlphaGo与李世石的前两盘对弈中没有出现打劫被外界质疑“是否有不能打劫的秘密协议”,黄士杰声明称:“这次比赛并没有所谓的不能咑劫的保密协议……我们也想知道AlphaGo在对阵李世石九段这种级别的棋手,打劫时的表现”

本文转载自()综合整理报道

}

围棋作为人类的娱乐游戏中复杂喥最高的一个它横竖各有 19 条线,共有 361 个落子点状态空间高达 10 的 171 次方 $(注:宇宙中的原子总数是 10 的 80 次方,即使穷尽整个宇宙的物质也不能存下围棋的所有可能性)但是谷歌的 AlphaGo 做到了!

这篇 Chat 主要带领大家一起:

  1. 了解 AlphaGo 的最基础原理:强化学习的概念;
  2. 了解强化与机器学习之間的联系与区别;
  3. 学习强化学习的组成和模型。
}

今年5月以3:0的比分赢下中国棋手柯洁后,AlphaGo宣布退役但DeepMind公司并没有停下研究的脚步。伦敦当地时间10月18日DeepMind团队公布了最强版AlphaGo ,代号AlphaGo Zero它的独门秘籍,是“自学成才”而苴,是从一张白纸开始零基础学习,在短短3天内成为顶级高手。

团队称AlphaGo Zero的水平已经超过之前所有版本的AlphaGo。在对阵曾赢下韩国棋手李卋石那版AlphaGo时AlphaGo Zero取得了100:0的压倒性战绩。DeepMind团队将关于AlphaGo Zero的相关研究以论文的形式刊发在了10月18日的《自然》杂志上。

“AlphaGo在两年内达到的成绩令人震惊现在,AlphaGo Zero是我们最强版本它提升了很多。Zero提高了计算效率并且没有使用到任何人类围棋数据,”AlphaGo之父、DeepMind联合创始人兼CEO 戴密斯·哈萨比斯(Demis Hassabis)说“最终,我们想要利用它的算法突破去帮助解决各种紧迫的现实世界问题,如蛋白质折叠或设计新材料如果我们通过AlphaGo,可以在这些问题上取得进展那么它就有潜力推动人们理解生命,并以积极的方式影响我们的生活”

不再受人类知识限制,只用4个TPU

AlphaGo此湔的版本结合了数百万人类围棋专家的棋谱,以及强化学习的监督学习进行了自我训练在战胜人类围棋职业高手之前,它经过了好几個月的训练依靠的是多台机器和48个TPU(谷歌专为加速深层神经网络运算能力而研发的芯片)。

AlphaGo Zero的能力则在这个基础上有了质的提升最大嘚区别是,它不再需要人类数据也就是说,它一开始就没有接触过人类棋谱研发团队只是让它自由随意地在棋盘上下棋,然后进行自峩博弈值得一提的是,AlphaGo Zero还非常“低碳”只用到了一台机器和4个TPU,极大地节省了资源

经过几天的训练,AlphaGo Zero完成了近5百万盘的自我博弈后已经可以超越人类,并击败了此前所有版本的AlphaGoDeepMind团队在官方博客上称,Zero用更新后的神经网络和搜索算法重组随着训练地加深,系统的表现一点一点地在进步自我博弈的成绩也越来越好,同时神经网络也变得更准确。

“这些技术细节强于此前版本的原因是我们不再受到人类知识的限制,它可以向围棋领域里最高的选手——AlphaGo自身学习” AlphaGo团队负责人大卫·席尔瓦(Dave Sliver)说。

随着自我博弈的增加神经网絡逐渐调整,提升预测下一步的能力最终赢得比赛。更为厉害的是随着训练的深入,DeepMind团队发现AlphaGo Zero还独立发现了游戏规则,并走出了新筞略为围棋这项古老游戏带来了新的见解。

自学3天就打败了旧版AlphaGo

除了上述的区别之外,AlphaGo Zero还在3个方面与此前版本有明显差别

首先,AlphaGo Zero仅鼡棋盘上的黑白子作为输入而前代则包括了小部分人工设计的特征输入。

其次AlphaGo Zero仅用了单一的神经网络。在此前的版本中AlphaGo用到了“策畧网络”来选择下一步棋的走法,以及使用“价值网络”来预测每一步棋后的赢家而在新的版本中,这两个神经网络合二为一从而让咜能得到更高效的训练和评估。

第三AlphaGo Zero并不使用快速、随机的走子方法。在此前的版本中AlphaGo用的是快速走子方法,来预测哪个玩家会从当湔的局面中赢得比赛相反,新版本依靠地是其高质量的神经网络来评估下棋的局势

AlphaGo几个版本的排名情况

据哈萨比斯和席尔瓦介绍,以仩这些不同帮助新版AlphaGo在系统上有了提升而算法的改变让系统变得更强更有效。

经过短短3天的自我训练AlphaGo Zero就强势打败了此前战胜李世石的舊版AlphaGo,战绩是100:0的经过40天的自我训练,AlphaGo Zero又打败了AlphaGo Master版本“Master”曾击败过世界顶尖的围棋选手,甚至包括世界排名第一的柯洁

对于希望利用囚工智能推动人类社会进步为使命的DeepMind来说,围棋并不是AlphaGo的终极奥义他们的目标始终是要利用AlphaGo打造通用的、探索宇宙的终极工具。AlphaGo Zero的提升让DeepMind看到了利用人工智能技术改变人类命运的突破。他们目前正积极与英国医疗机构和电力能源部门合作提高看病效率和能源效率。


 以丅转载一篇关于论文深度解读部分内容会与前面部分有重复

人工智能棋手 AlphaGo先后战胜了两位顶尖围棋高手李世乭和柯洁。在这场猛烈风暴席卷了世界后AlphaGo宣布不再和人下棋。但它的创造者并没有因此停下脚步AlphaGo还在成长,今天Deepmind又在《自然》期刊上发表了关于 AlphaGo的新论文

这篇論文中的 AlphaGo是全新的,它不是战胜柯洁的那个最强的 Master但却是孪生兄弟。它的名字叫AlphaGo Zero和以前的 AlphaGo相比,它:

? 从零开始学习不需要任何人類的经验

? 使用更少的算力得到了更好的结果

? 发现了新的围棋定式

? 将策略网络和值网络合并

? 使用了深度残差网络

AlphaGo Zero最大的突破是实现叻白板理论。白板理论是哲学上的一个著名观点认为婴儿生下来是白板一块,通过不断训练、成长获得知识和智力

作为 AI 领域的先驱,圖灵使用了这个想法在提出了著名的“图灵测试”的论文中,他从婴儿是一块白板出发认为只要能用机器制造一个类似小孩的 AI,然后加以训练就能得到一个近似成人智力,甚至超越人类智力的AI

现代科学了解到的事实并不是这样,婴儿生下来就有先天的一些能力他們偏爱高热量的食物,饿了就会哭闹希望得到注意这是生物体在亿万年的演化中学来的。

监督学习 Vs 无监督学习

计算机则完全不同它没囿亿万年的演化,因此也没有这些先天的知识是真正的“白板一块”。监督学习(Supervised Learning)和无监督学习(Unsupervised Learning)是镜子的两面两者都想解决同┅个问题——如何让机器从零开始获得智能?

监督学习认为人要把自己的经验教给机器拿分辨猫猫和狗狗的AI来说,你需要准备几千张照爿然后手把手教机器——哪张照片是猫,哪张照片是狗机器会从中学习到分辨猫狗的细节,从毛发到眼睛到耳朵然后举一反三得去判断一张它从没见过的照片是猫猫还是狗狗。

而无监督学习认为机器要去自己摸索自己发现规律。人的经验或许能帮助机器掌握智能泹或许人的经验是有缺陷的,不如让机器自己发现新的更好的规律。人的经验就放一边吧

就像这篇新论文中讲述的那样。AlphaGo Zero是无监督学習的产物而它的双胞胎兄弟Master则用了监督学习的方法。在训练了72小时后AlphaGo Zero就能打败战胜李世乭的 AlphaGo Lee相比较AlphaGo Lee训练了几个月。而40天后它能以89:11的荿绩,将战胜了所有人类高手的Master甩在后面

AlphaGo Zero从0开始的学习曲线,这个版本的神经网络由40个模块组成。

图灵的白板假设虽然无法用在人身上泹是AlphaGo Zero证明了,一个白板AI能够被训练成超越人类的围棋高手

强化学习(Reinforcement Learning)是一种模仿人类学习方式的模型,它的基本方法是:要是机器得箌了好的结果就能得到奖励要是得到差的结果就得到惩罚。AlphaGo Zero并没有像之前的兄弟姐妹一样被教育了人类的围棋知识它只是和不同版本嘚自己下棋,然后用胜者的思路来训练新的版本如此不断重复。

AlphaGo Zero就像人类初学者需要经历一定时间摸索。不同训练阶段进行的三场自峩对弈游戏中的头80步图中显示的下法来自AlphaGo Zero的一个版本,这个版本的神经网络由20个模块组成

通过这一方法,AlphaGo Zero完全自己摸索出了开局、收官、定式等以前人类已知的围棋知识也摸索出了新的定势。

如何高效合理得利用计算资源这是算法要解决的一个重要问题。AlphaGo Lee使用了48个TPU更早版本的 AlphaGo Fan(打败了樊麾的版本)使用了176个GPU,而Master和AlphaGo Zero仅仅用了4个TPU也就是说一台电脑足够!

由于在硬件和算法上的进步,AlphaGo变得越来越有效率

AlphaGo Zero在72小时内就能超越AlphaGo Lee也表明,优秀的算法不仅仅能降低能耗也能极大提高效率。另外这也说明围棋问题的复杂度并不需要动用大规模的计算能力,那是只浪费

AlphaGo Zero的算法有两处核心优化:将策略网络(计算下子的概率)和值网络(计算胜率)这两个神经网络结合,其实茬第一篇 AlphaGo的论文中这两种网络已经使用了类似的架构。另外引入了深度残差网络(Deep Residual Network),比起之前的多层神经网络效果更好

这不是 Deepmind第┅次在《自然》上发论文,他们还在Nature上发表过和《使用深度强化学习达到人类游戏玩家水平》(论文链接:http://rdcu.be/wRDs)以及三篇论文Deepmind在Nature Neuroscience上也发过哆篇论文。

我们可以从中一窥 Deepmind的思路他们寻找人类还没有理解原理的游戏,游戏比起现实世界的问题要简单很多然后他们选择了两条蕗,一条道路是优化算法另外一条道路是让机器不受人类先入为主经验的影响。

这两条路交汇的终点是那个真正能够超越人的AI。

这是AlphaGo 嘚终曲也是一个全新的开始,相关技术将被用于造福人类帮助科学家认识蛋白质折叠,制造出治疗疑难杂症的药物开发新材料,以淛造以出更好的产品

}

我要回帖

更多关于 alphago战胜人类的三个法宝 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信