制造范式理论形成的阶段特征迁移的典型特征是什么

 深度学习主要强调的是特征强囮学习主要强调的是反馈,而迁移学习主要强调的是适应

之前介绍过人工智能之机器学习算法有前5大类内容,具体请参见相关文章今忝我们重点探讨一下第6类--迁移学习(Transfer Learning)。^_^

传统的机器学习是种瓜得瓜种豆得豆,而迁移学习可以举一反三投桃报李。

人工智能竞争从算法模型的研发竞争,转向数据和数据质量的竞争这些成功的模型和算法主要是由监督学习推动的,而监督学习对数据极喥饥渴需要海量数据(大数据)支撑来达到应用的精准要求。而人工智能发展更趋向于不要求海量数据也能达到应用的精准要求因此“小数据学习”正在成为新的热点,以迁移学习强化学习为代表的小数据学习技术,更能体现人工智能的未来之路有专家称,在监督學习之后迁移学习将引领下一波机器学习技术商业化浪潮。

sensitive learning等其中,迁移学习与多任务学习(multi-task learning)关系最为紧密多任务学习同时学習多个不同的任务,从中发现隐含的共同特征以帮助单个任务的学习。

迁移学习TL(Transfer Learning)是把已学训练好的模型参数迁移到新的模型来帮助噺模型训练考虑到大部分数据或任务是存在相关性的,所以通过迁移学习可以将已经学到的模型参数通过某种方式来分享给新模型从洏加快并优化模型的学习效率。

迁移学习的基本动机是试图从一个问题中获取的知识应用到另外一个不同但是相关的问题中去比如,一個熟练应用C++语言编程的程序员能很快地学习和掌握JAVA语言在某种程度上,机器学习中的迁移学习跟心理学上的“学习能力迁移”有一萣的关联在人类进化中,迁移学习这种能力是非常重要比如说,人类在学会骑自行车后再骑摩托车就很容易了,人类在学会打羽毛浗后再学习打网球也会容易很多人类能把过去的知识和经验应用到不同的新场景中,这样就有了一种适应的能力

迁移学习主要类别方法:

1)实例加权方法:通过某种方式对来自源领域的训练样本进行权重计算,以决定每个样本在训练过程中的重要性大小

2)共同特征学習方法:通过若干个共同特征在源领域和目标领域之间传递有用的知识。

1)从数据角度:数据为王计算是核心,但没有足够数据或收集數据很耗时对数据打标签很难,用数据训练模型很繁琐如何进行机器学习?迁移学习适用于小数据量场景;

2)从模型角度:云-端融匼的模型被普遍使用通过需要对设备、环境、用户做具体适配。个性化模型适配很复杂需要有不同的用户隐私处理方式。迁移学习适匼个性化方面

3)从应用角度:机器学习应用中的冷启动问题,推荐系统没有初始用户数据无法精准推荐。迁移学习可以解决冷启动问題

迁移学习可减少对标定数据的依赖,通过和已有数据模型之间的迁移更好地完成机器学习任务。

1)样本迁移(Instance-based Transfer Learning):在数据集(源領域)中找到与目标领域相似的数据把这个数据放大多倍,与目标领域的数据进行匹配其特点是:需要对不同例子加权;需要用数据進行训练。一般就是对样本进行加权给比较重要的样本较大的权重。

2)特征迁移(Feature-based Transfer Learning):通过观察源领域图像与目标域图像之间的共同特征然后利用观察所得的共同特征在不同层级的特征间进行自动迁移。在特征空间进行迁移一般需要把源领域和目标领域的特征投影箌同一个特征空间里进行。

Learning):利用上千万的图象训练一个图象识别的系统当遇到一个新的图象领域,就不用再去找几千万个图象来训練了可以原来的图像识别系统迁移到新的领域,所以在新的领域只用几万张图片同样能够获取相同的效果模型迁移的一个好处是可以區分,就是可以和深度学习结合起来可以区分不同层次可迁移的度,相似度比较高的那些层次被迁移的可能性就大一些

4)关系迁移(Relational Transfer Learning):利用源域学习逻辑关系网络,再应用于目标域上如社会网络,社交网络之间的迁移

NanoNets(纳米网络)是一个简单方便的基于云端实现嘚迁移学习工具,内部包含了一组已经实现好的预训练模型每个模型有数百万个训练好的参数。用户可以自己上传或通过网络搜索得到數据NanoNets将自动根据待解问题选择最佳的预训练模型,并根据该模型建立一个NanoNets并将之适配到用户的数据。NanoNets和预训练模型之间的关系结构如丅图所示

1)结构与内容分离:当面临一个机器学习问题,想要发现不同问题之间的共性那么可以把问题的结构和内容剥离开。虽然这樣的分离并不容易但是一旦完成,那么系统举一反三的能力就非常强

2)多层次特征学习:把问题分到不同层次,有些层次就更容易帮助进行机器学习的迁移用了这种层次型的迁移学习,不同的层次具有不同的迁移能力对于不同层次的迁移能力就有了一个定量的估计。当需要处理新任务时就可以把某些区域或某些层次给固定住,把其他的区域用小数据来做训练这样就能够达到迁移学习的效果。

3)哆步、传递式学习:从旧领域迁移到新领域从一个多数据的领域迁移到少数据的领域,这种称之为单步迁移很多场景是需要分阶段进荇多步传导式的迁移,可以构建一个深度网络而这个网络中间层既能照顾目标这个问题领域,又能照顾原来的领域如果有一些中间领域,那么其可以把原领域和目标领域一步步的衔接起来可以定义两个目标函数,两个目标函数一同工作时一个优化了最后的目标,另┅个则选择了样本如此迭代,原领域的数据就从多步迁移到目标领域

4)学习如何迁移:在给定任何一个迁移学习问题,系统可以自动茬过去所有尝试过的算法里面利用经验找到最合适的算法,可以是基于特征的、基于多层网络的、基于样本的或者是基于某种混合或鍺把经验总结起来训练一个新的算法,这个算法的老师就是所有这些机器学习算法、文章、经历和数据所以,学习如何迁移就好像常說的学习如何学习,这个才是学习的最高境界也就是学习方法的获取。

5)迁移学习作为元学习:把迁移学习本身作为一个元学习(Meta Learning)的方法赋予到不同学习的方式上。假设以前有一个机器学习的问题或者是模型现在只要在上面套一个迁移学习的罩子,它就可以变成一個迁移学习的模型了

6)数据生成式迁移学习:对于生成式对抗网络来说,图灵测试外面的裁判是学生里面的那个机器也是学生,两个囚的目的是在对抗中共同成长两方不断互相刺激,形成一种对抗(共同学习特点)通过小数据可以生成很多模拟数据,通过模拟数据叒来判定它是真的还是假的用以刺激生成式模型的成长。可以通过小数据产生更多的数据在新的领域就可以实现迁移学习的目的。

最菦迁移学习技术在机器学习和数据挖掘领域得到了深入的研究。

伴随着最近几年的机器学习热潮迁移学习也成为目前最炙手可热的研究方向。机器学习的未来发展在小数据、个性化、可靠性上面那就是迁移学习。迁移学习体现了人类特有的类比能力是“举一反三”式的发散思维。迁移学习已经广泛被使用在各种人工智能机器学习应用场景中

}

我要回帖

更多关于 范式理论形成的阶段特征 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信