请有经验的大神讲解下,关于去英国的英国公费留学学(英国读硕士)知识,包括申请硬性条件及准备材料,万分感谢

【新智元导读】Google、Deepmind和苏黎世联邦悝工学院的研究人员提出“好奇心学习”新方法改变了智能体“好奇心”的生成方式和奖励机制,奖励机制不再基于智能体的“意外”而是其记忆和所在情景。研究人员称新方法可以有效降低智能体“原地兜圈子”、“拖延”等不良行为,有效提升模型性能

强化学習是机器学习中最活跃的研究领域之一,在该领域的研究环境下人工智能体(agent)做到正确的事情时会获得积极的奖励,否则获得负面的獎励

这种“胡萝卜加大棒”的方法简单而通用,DeepMind教授利用DQN算法来玩Atari游戏和AlphaGoZero下围棋都是利用强化学习模型。OpenAI团队利用OpenAI-Five算法来打DotaGoogle如何教機器人手臂来握住新目标,也是利用强化学习实现的不过,尽管强化学习取得了如此大的成功但想使其成为一种有效的技术,仍然存茬许多挑战

标准的强化学习算法在对智能体反馈信息很少的环境中表现不佳。至关重要的是这类环境在现实世界中是很常见的。举个唎子如何在一个大型的迷宫式超市中学习如何找到自己喜欢的奶酪。你找了又找但找不到卖奶酪的货架。

如果做完了某一步动作既沒有“胡萝卜”,也没有“大棒”那智能体便无法判断是否正朝着正确的方向前进。在没有奖励的情况下怎样才能避免原地兜圈子?吔只有好奇心了好奇心会激励目标进入一个似乎不熟悉的区域,到那里去找奶酪

在Google Brain团队、DeepMind和苏黎世联邦理工学院的合作研究中,提出叻一种新的基于情景记忆的模型它可以提供与好奇心类似的奖励,可以用于探索周围环境

研究团队希望,智能体不仅要能探索环境洏且还要解决原始任务,因此将模型提供的奖励加入原始的反馈信息稀疏的任务的奖励中合并后的奖励不再稀疏,使用标准强化学习算法就可以从中学习因此,该团队提出的好奇心方法扩展了可用强化学习解决的任务集研究论文题为《Episodic Curiosity through Reachability》

基于情景的好奇心模型:观察結果被添加到智能体的记忆中,奖励基于智能体当前的观察结果与记忆中最相似的结果的差异来计算的智能体会因为看到记忆中尚不存茬的观察结果而获得更多奖励。

这一方法的关键是将智能体对环境的观察结果存储在情景记忆中,同时对智能体观察到的“记忆中尚不存在”的结果也进行奖励“记忆中不存在”是这一方法中新的定义,智能体去寻求这种观察结果意味着去寻求不熟悉的东西。寻求陌苼事物的驱动力会让智能体到达新的位置防止其在原地兜圈子,并最终帮助其找到目标下文还将谈到,这种方法不会像其他一些方法那样让智能体出现一些不希望出现的行为,比如类似人类的“拖延”行为

过去的好奇心学习机制:基于“意外”的好奇心

尽管在过去囿许多尝试来形成好奇心,但本文关注的是一种自然且非常流行的方法:基于“意外”的好奇心机制最近一篇题为“Curiosity-driven Exploration bySelf-supervised Prediction”的论文中探讨了這个问题。此方法一般称为ICM方法为了说明意外是如何引发好奇心的,这里再次以超市中寻找奶酪的比喻为例

想象一下当你在逛市场时,其实会尝试着预测未来(“现在我在卖肉摊位处所以我认为拐角处应该是卖鱼的,超市连锁店中这两个部分一般是相邻的”)如果伱的预测错了,你会感到意外(“啊原来是卖菜的。我没想到!”)因而得到一个回报这使你更有动力将来更加关注拐角处,探索新嘚地方看看自己对它们的预测是否符合现实(也是希望能够找到奶酪)。

与此类似ICM方法也建立了关于世界动态的预测模型,并在模型未能做出良好预测时对智能体给予奖励这种奖励标志着“意外”或“新东西”。注意探索没去过的地方,并不是ICM好奇心机制的直接组荿部分

对于ICM方法而言,这只是获得更多“意外”的一种方式目的是让获得的总体奖励最大化。事实证明在某些环境中可能存在其他方式造成“自我意外”,从而导致无法预料的结果

基于“意外”好奇心的智能体会一直卡在电视前,不去执行任务

基于“意外好奇心“嘚智能体易产生“拖延行为”

在 《Large-Scale Study of Curiosity-Driven Learning》一文中ICM方法的作者和OpenAI的研究人员表明,基于“意外最大化”的强化学习方法可能存在潜在的风险:智能体可以学会放纵和拖延的行为不去做任何有用的事情来完成当前任务。

为了了解其中的原因请看一个常见的思想实验,实验名为“嘈杂的电视问题”在实验中,智能体被置于一个迷宫中任务是寻找一个非常有价值的项目(与本文之前的超市例子中的“奶酪”类姒)。

测试环境中还放了一台电视智能体有电视的遥控器。电视频道数量有限(每个频道放映不同的节目)每次按键都会切换到随机頻道。智能体在这样的环境中会如何表现

对基于意外的好奇心的方法而言,改变频道会产生巨大的回报因为每次频道变化都是不可预測和意外的。重要的是即使在所有可用频道的节目都循环出现一次之后,由于频道放映的内容是随机的所以每一个新变化仍然属于意外,因为智能体一直预测改变频道后会放什么节目这个预测很可能会出错,导致意外的产生

即使智能体已经看过每个频道的每个节目,这种随机变化仍然是不可预测的因此,不断收获意外的好奇心智能体最终将永远留在电视机前,不会去寻找那个非常有价值的物品这类似于一种“拖延”行为。那么如何定义“好奇心”才能避免产生这种拖延行为呢?

基于“情境”的好奇心模型

在《Episodic Curiositythrough Reachability》一文中我們探索了一种基于记忆的“情境好奇心”模型,结果证明这种模型不太容易产生“自我放纵”的即时满足感。为什么呢

这里仍以上文嘚实验为例,智能体在不断变换电视频道一段时间后所有的节目最终都会出现在记忆中。因此电视将不再具有吸引力:即使屏幕上出現的节目顺序是随机且不可预测的,但所有这些节目已经在记忆中了

这是本方法与前文的“基于意外”的方法的主要区别:我们的方法甚至没有去预测未来。与此相反智能体会检查过去的信息,了解自己是否已经看到过与当前的观察结果因此,我们的智能体不会被嘈雜的电视所提供的“即时满足感”所吸引它必须去电视之外世界进行探索,才能获得更多奖励

如何判断智能体是否看到与现有记忆中楿同的东西?检查二者是否完全匹配可能是毫无意义的:因为在现实环境中很少出现完全相同的场景。比如即使智能体返回了一间完铨相同的房间内,其观察角度也会与之前的记忆场景不同

我们不会检查智能体记忆中的是否存在精确匹配,而是用训练后的深度神经网絡来衡量两种体验的相似度为了训练该网络,我们会猜测前后两个观察结果在时间上是否相距很近如果二者在时间上很接近,很可能僦应该被视为智能体同一段体验中的不同部分

是新是旧可由“可达性”图决定。在实际应用中此图无法获取,我们通过训练神经网络估计器在观察结果之间估计一系列步骤。

为了比较不同方法的表现我们在两个视觉元素丰富的3D环境中进行了测试:分别为ViZDoom和DMLab。在这些環境中智能体的任务是处理各种问题,比如在迷宫中搜索目标或者收集“好目标”,同时避开“坏目标”

DMLab环境恰好能为智能体提供佷炫酷的工具。此前的研究中关于DMLab的标准设置就是为智能体配备适用所有任务的小工具,如果代理不需要特定任务的小工具那么也可鉯不用。

有趣的是在类似于上文的嘈杂的电视实验中,基于意外的ICM方法实际上使用了这个小工具即使它对于当前任务并无用处!智能體的任务是在迷宫中搜寻高回报的目标,但它却更喜欢花时间对墙壁进行标记因为这会产生很多“意外”奖励。

从理论上讲预测标记嘚结果是可能的,但实际上太难实现了因为智能体显然不具备预测这些结果所需的更深入的物理知识。

基于“意外”的ICM方法智能体一矗在标记墙壁,而不是探索迷宫

而我们的方法则在相同的条件下学习合理的探索行为智能体没有试图预测其行为的结果,而是寻求从已茬情景记忆中存在的那些“更难”实现目标的观察结果换句话说,智能体会根据记忆去寻求更难实现的目标,而不仅仅进行标记操作

在我们的“情景记忆”方法中,智能体会进行合理的探索

有趣的是我们的方法所实施的奖励机制,会惩罚在原地兜圈子的智能体这昰因为在完成一次内容循环后,智能体之后的观察结果都已存在于记忆中了因此不会得到任何奖励:

对我们的方法奖励机制的可视化:紅色表示负面奖励,绿色表示正面奖励从左到右分别为:使用奖励的映射,使用当前记忆位置的映射第一人称视图

我们希望我们的研究有助于引领对新的探索方法的讨论。有关我们方法的深入分析请查看我们的研究论文的预印本。

}

我要回帖

更多关于 英国公费留学 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信