遗传算法属于神经网络?是改变神经网络的参数嘛?

专业文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买专业文档下载特权礼包的其他会员用户可用专业文档下载特权免费下载专业文档。只要带有以下“專业文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会員用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需偠文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用戶免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

}

从16年年中开始我们开始思考最優的深度神经网络结构自动发现的问题,并在业余时间开始逐步做些探索性的实验当时的出发点其实很简单:对于解决某个

任务,目前嘚常规做法是通过

研发人员分析问题特性并不断设计修改试探深度神经网络的结构,找到最适合解决手头问题的网络结构然后通过不斷调参来获得解决问题的最优网络结构及其对应的参数。很明显这里需要耗费研发人员大量的精力,大家知道AI在各个行业逐步辅助和替代人是个大的发展趋势,那么自然就产生一个问题:在探索解决手头问题的深度神经网络结构方面既然耗费了大量的精力那么这个工莋能不能让机器自动完成呢?也就是这项工作的初衷是代替

研发工程师的日常工作我觉得这个思路是可行的,而且将来也一定是这个行業的发展趋势而且初步调研了一下当时还没有发现有人发表相关的工作,有一定的前沿性并且如果真的可行,在实际工作中也可以用起来节省人力研发成本于是就开始想些办法探索这个方向。

我觉得将来深度学习研发的形态不会是目前这个样子而应该是如下的一种場景:假设我们手头有一个技术成熟的神经网络自动探索最优结构的系统(比如它的名字叫NeuralFinder)的话,那么整个研发过程不需要深度学习工程师的介入只需要给定某个问题的训练数据,然后启动NeuralFinder它会自动找到解决这个问题较好的网络结构及其对应的参数。那么目前身价不菲的深度学习工程师岂不是没事可干换句话说会面临失业的风险?这个问题也对也不对,虽然可能没有参数可调甚至神经网络架构也不需要你去设计了,但是你可以投入精力去研发这种神经网络自动探索系统啊俗话说的好:上帝给你关上了一扇窗,他还会给你打开一扇門是吧?当然上面说的是未来的理想状况,要真达到这种状态一方面相关技术才刚刚冒头起步另外也需要计算资源成本得大幅下降財行。

这个方向我觉得是个值得投入精力去摸索的好的探索方向也是个深度学习工程师自己革自己命的方向,反正你不做迟早有一天别囚也会这么做这是当时驱动我去开始摸索这个方向的初始动力。

最开始我的思路是想用遗传算法属于神经网络?去做这个问题因为遗传方法看上去解决这个问题匹配度比较高而且也比较直观:可以把一个具体的网络结构看做一个生命,而构成神经网络的基本层比如Conv卷积层Pooling层或者BN或者非线性函数的选择都当做构成生命的基本基因(不同的参数也可以看做不同的基因),不同的基因组合形成了不同的网络结構然后通过大量群体之间遗传变异等操作以及优胜劣汰的基本指导思想,把解决手头问题性能比较差的网络结构淘汰掉性能比较好的網络结构逐步胜出,然后直到找到最优的网络结构为止

上述思路看着简单直观,但是有个现实的问题因为遗传算法属于神经网络?要生荿大量种群,尤其是再加上各种遗传变异操作所以同一时间需要的计算量是超级大的,但是我们手头只有一台GPU服务器所以跑一轮估计偠太久时间,这个时间成本基本无法承受所以对这个思路进行了一些改造,然后糅合了人工生命和遗传算法属于神经网络?的思路来做咜的好处是运算规模基本可以通过简单控制参数来进行调整控制,而且不像遗传算法属于神经网络?只有算出一批种群才能继续往后进行下一輪,每一步只需要计算5-10个模型就可以继续往后进行具体思路后面内容会介绍。

上面是原初的想法后面我们不断微调算法反复试验,到叻16年年底的(对于缺乏GPU设备来说即使初始模型规模控制在比较小,跑一轮时间确实还是比较久基本是以周为单位的)时候,系统基本能够较好的自动运转也能在CIFAR10图像分类数据集合和文本分类数据集合上获得和目前手工设计的较好网络结构相当的水准(后面会给出一些實验数据以及自动找到的好的网络结构)。本来是打算在初步想法得到验证后引入复杂算法进一步实验看是否能发表,结果16年年底17年年初已经发现陆续开始出现这方面的论文(比如Google的这篇投往ICLR Classifiers)考虑到我们采用的方法比较简单,所以看到增强学习的思路后基本放弃了发表的念头但是另外考虑到在这上面还是花了精力,而且方法和目前已经出现的方法有区别另外我自己工作很快会发生变动,可能会放棄这个方向的进一步探索所以最终还是考虑以这种方式发出来,供有兴趣继续进行探索的同学参考这里我再强调一点,我认为这是一個值得关注的好的探索方向代表了未来的趋势而且刚刚冒头还有大量问题需要解决,其它原因上面说过了

二.集成人工生命和遗传算法屬于神经网络?思想的最优网络结构发现

上文简单说明了基本思路,虽然很直观但是如果仔细考虑,你会发现需要探索的网络结构组合空間的大小还是很恐怖的

2.1 探索空间的巨大性及简化工作

对比目前人工设计的卷积神经网络,诸如LeNet网络ImageNet,VGG16,VGG19,All-CNNs,NIN,ResNet,GoogleNet,FractalNet,DenseNet等结构,很容易发现这些卷积神经網络的结构都是由一些不同类型的层构成基础的结构单元然后基础结构单元通过不断复制组成了深层神经网络结构,一般而言卷积神经網络的基本结构由以下部分组成:

卷积层: 卷积层含有的属性包括卷积核个数nb_filter卷积核的大小(长和高的大小),初始化方式卷积移动stride步数,border_mode模式(same或者valid)

激活函数层: 激活函数层的类型可以取值为tanh,sigmoid,relu任意一种及其各种变体,目前最常用的一般是Relu及其变体;

全连接层: 主要的變化点是隐层单元的个数以及激活函数的类型;

分类层: 同全连接一样只不过隐层单元个数为类标签的个数;

Dropout层: 正则化系数,主要指嘚是丢弃神经元的比例;

BatchNormatization层: 主要是每批训练的每个样本减去批内数据的均值除以批内数据的方差,再乘以alpha加上beta系数主要变化点为alpha和beta系数。

Skip Connection: 主要指的是CNN网络结构上的层间跳跃在低层与高层之间建立“捷径”,从ResNet以及后续许多带shortcuts结构的模型可以知道带有这种结构的網络结构效果会明显好于传统结构。

如果完全利用以上基础的层结构进行组合形成深层CNN网络结构很明显其参数空间是巨大无比的,是一個NP难问题 假设一个d层神经网络,层的类型个数为s,每层含有k个属性每个属性的取值为t个,那么其搜索空间的范围为:(skt)d , 这个数字是相当大嘚比如针对10层的神经网络,5种类型层每层含有3个属性,每个属性取值5个那么结构的个数为7510 =1017.8。这个空间的搜索范围是很恐怖的

当时為了验证思路的可行性,所以考虑一切从简先验证思路可行再考虑引入更多类型的层及参数变化并引入更为复杂的模型,所以当时尽可能地步减少搜索空间范围初步的实验我们做了如下的简化处理和一些约定:

   1. 卷积层中由于属性较多,stride固定设置为1 border_mode模式设置为same即经过卷積不改变大小,卷积层的权值初始化方式为随机取值

   2. 激活函数的使用过程中默认和卷积层绑定,不作为独立一层理想的方式应该将激活函数当做单独的一层处理,这样可以在其中插入BN操作同时将BN当做另外的独立层,这样产生的网络结构会更灵活为了简化问题,我们約定激活函数和卷积层绑定而且激活函数的类型固定住,在卷积层使用relu,分类层使用softmax激活函数

   7. 分类层上加一个正则化约束因子L2,防止过拟匼。

   8. 训练时迭代次数设置100次加入早停机制,即如果10次性能不提高终止训练,这是为了加快单次探索的速度所以只采用一种粗粒度的訓练和性能评估。

综上所述经过上述大量简化,模型探索过程的主要变化点来自于卷积层的filter个数大小和MaxPooling层的个数和在CNN中的不同位置为叻进一步简化问题,这里我们将CNN卷积层filter个数设置为取16,32,48,96,128,196,256,512中的某个值

尽管如此,假设单独考虑10层模型并且不考虑其间插入pooling层的情况下,上媔8种filter的搜索空间的个数为:810 相对而言训练的模型的个数还是比较多的。

2.2人工生命和遗传算法属于神经网络?思想

人工生命结合遗传算法属於神经网络?的基础思想其实非常简单我们以下面两个图形来说明

图1.人工生命的4*4二维生存世界

我们首先模仿类似人工生命的思路,假设人笁生命的生存世界是如图1所示的4*4大小的二维格子每个格子里面居住一个人工生命,在我们的问题里每个人工生命就是某个深度神经网絡的网络结构,每个人工生命网络结构都不同而通过训练数据训练后使用验证集可以测试出每个生命的性能,这个性能代表其在生存世堺的生存能力性能越高代表自身存活并繁衍后代的可能性就越大,通过在人工生命的生存世界里不断的优胜劣汰并逐步进化的过程能夠在几乎无限大小的网络结构空间里面逐步向性能好的网络结构进化,最终性能好的生命会淘汰掉性能差的生命并充斥整个生存世界

上述是其基本思想,图2展示了具体的一轮进化过程一般在人工生命的生存世界中随机选择一个格子的生命作为“主生命”,另外在主生命嘚邻居范围随机选择一个“辅生命”然后以这两个生命作为后续进化基础,通过遗传算法属于神经网络?产生新的网络结构进化出更好嘚生命,淘汰掉局部范围内性能差的生命这样就完成了一轮进化操作。通过进化操作使得性能好的网络结构增加在生存世界存活的概率同时逐步淘汰掉性能差的网络结构。

以上就是结合人工生命和遗传算法属于神经网络?自动最优探索网络结构的基本思想因为我们去年莋这个事情的初步的实验目的是验证模型的可行性,所以会尽量减少进化过程中基础遗传操作的类型原先的考虑是验证模型可行再引入哽复杂的基础操作步骤。

我们定义了最基本的遗传操作如下:

2.2.2基础遗传操作定义

1. 基因片段的自我复制.

 这个操作的引入主要是借鉴类似于VGG或鍺ResNet等结构这些网络结构都是由人工定义的基础Block反复叠加产生的,为了能够产生类似结构所以引入了网络子结构的自我复制操作。

 2. 基因爿段的交叉组合

基因交叉是遗传算法属于神经网络?中的典型操作。以某个神经网络结构个体序列S1=a1_a2_a3_a4和个体序列S2=b1_b2_b3_b4为例,它们进行交叉组合的种類是比较多的这里采用的策略是:随机分别在个体序列S1和S2之间选择交叉点p1,p2.假设p1=a2,p2=b3,那么它们产生的交叉个体为:

基因变异也是遗传算法属于鉮经网络?典型操作。假设个体的序列为a1_a2_a3_a4那么随机产生一个变异点,比如说变异点发生在a2位置,这里有两种情况:

如果a2是一个MaxPooling层,那么变异操莋空操作即原始基因保持不变;

如果a2是conv卷积层,其属性卷积核filter个数是f1,那么在之前的filter可选集合S中去掉f1随机选择,即{S-f1}中任意的一个元素作为变異操作的结果也就是说将卷积层的卷积核个数作为变异内容。

2.2.3自动网络结构寻优的关键步骤

采取如下步骤来完成人工生命+遗传算法属于鉮经网络?的进化过程:

step1. 人工生命初始化步

人工生命生存世界二维格子大小可以自由设定大小比如L×L,最初的生命基因片段只包含单层的卷积層或单层的MaxPooling层可以按照一定比例配置两者的个数配比,比如70%是Conv层30%是MaxPooling层,但是考虑到输入层如果是MaxPooling性能都比较差所以在MaxPooling层前可以先套仩随机个数卷积核的卷积层。初始化过程随机将这些简单基因片段组成的神经网络生命分配到L×L大小的二维格子中填充整个L×L个空间的單元格,针对这L×L个个体分别进行训练使用验证集得到对应网络结构性能得分。如此就完成了人工生命的初始化步骤

随机选择一个个體s1作为“主生命”(这一步是可以优化成给予目前性能较好的生命体更高的被选中概率,这样会加快进化速度),以s1为中心点选择一个半径为d的局部区域(一般选择二维格中相邻格子中的个体)在除去s1的d*d-1个局部区域中随机选择另外一个个体s2,s2被称为“辅生命”之所以有主辅之汾,从其命名也可以看出其中一个是进化的核心,另外一个是辅助进化的生命个体在这里,我们假设“主生命”s1的模型层次序列为a1_a2_a3_a4,

2. “主生命”的自身复制

以“主生命”s1进行自身基因复制操作,产生一个新的个体s3=a1_a2_a3_a4_a1_a2_a3_a4进行训练后通过验证集获得其性能得分,假设其性能为p3.

3. 主辅苼命基因交叉组合

如上面提到的基本操作部分对主辅生命两个基因进行随机的交叉组合产生4个个体,训练后分别通过验证集获得其性能嘚分假设为c1,c2,c3,c4.

4. 选择性能表现较好的组合或者自身复制出的新个体,记较好的生命性能得分为max_c即max_c=max{p3,c1,c2,c3,c4}。

这时可能出现如下三种情况:

a. 如果max_c比“主生命”s1的性能要差,说明目前选中的“主生命”性能比较好那么本轮进化不做任何操作,直接跳到step2,进行下一轮进化操作;

b. 如果max_c比“主生命”s1的性能要好但比“辅生命”s2的性能要差,这时max_c的网络结构替换掉s1的网络结构意味着性能较差的“主生命”被新生命淘汰掉,然后進行第5步的基因变异操作;

c. 如果max_c比“主生命”s1的性能要好也比“辅生命”s2的性能要好,这时max_c的网络结构替换掉“主生命”s1的结构同时吔替换掉“辅生命”s2的结构,意味着性能较差的“主生命”和“辅生命”同时被新生命淘汰掉然后进行第5步的基因变异步操作;

在s1附近嘚局部种群中,除去“主生命”和“辅生命”s1,s2外随机选择出局部区域中两个性能最差的个体L1,L2,使用max_c的网络结构替换掉L1和L2的网络结构后进行變异操作,就是把卷积层的卷积核个数随机变化掉这步的意思是加快优秀基因个体在种群中的传播,通过增加优秀基因个数并淘汰局部范围内较差基因的方式来达成这个目的同时,为了能够探索更多的网络结构空间将目前找到的优秀基因进行变异。

以上就是人工生命結合遗传算法属于神经网络?进行进化操作的步骤从上面的流程描述可以看出,这种结合人工生命和遗传算法属于神经网络?的方法好处是┅次进化步骤只需要产生10个以内的新结构然后可以进入下一次进化过程,当然理论上完全可以把上述过程并行化来加快进化过程,比洳多GPU的情况下可以同时随机选择K个“主生命”同时计算加快速度。但是上文说过之所以选择这种方式正是因为我们只有一个GPU服务器,所以为了保证算法能够跑起来被迫采取这种方式就是把遗传算法属于神经网络?的种群这种大量并行计算给消解掉了使得其能够串行运行。

另外需要说明的是:上述过程中存在优秀生命个体淘汰落后生命个体的过程淘汰标准是对这个网络结构在验证集上的性能比较来进行嘚,性能好的生命个体就是优秀生命个体这里存在一个性能比较标准问题,比如一个网络性能是0.8253另外一个是0.8252,其实两者性能差异并大可以认为相当,不足以说明哪个性能更好所以使用模型性能的相对比率进行度量和比较,即两个模型的得分为s1,s2,如果s1>s2

·  单次训练的参数統一设置

    带动量的随机梯度下降算法使用nesterov进行初始化,初始学习率设置为0.01动量因子0.9,衰减因子设置为1e-6

    训练次数设置100次,设置早停10佽性能不提高终止训练。

·  进化过程参数设置

- 二维格子大小设定为7*7或9*9大小

    进行旋转操作水平和竖直方向进行平移操作;

3.2自动找出的TOP 性能網络结构

因为条件所限以及目的主要是探索思路可行性,所以我们设定的二维格都比较小一般采取7*7或者9*9大小最终跑出来大约1000多个各种基洇组成的CNN结构,很明显这个数据量相对可能组合出的CNN结构来比可说是沧海一粟但是经过优胜劣汰,性能得分前列的模型表现还是不错的基本可以进入目前人工设计出的较好的神经网络结构之列,其中效果较好的模型在CIFAR10数据集上性能达到了92.70%的准确率自动找出的性能TOP 20的网絡结构准确率都超过了91%(本文附件列出了性能TOP 15的神经网络模型结构)。其中性能较好的模型长这个样子:

3.3相关实验性能比较

目前人工设計的比较常见的神经网络有包括VGG,NIN,ALL-CNN,ResNet,DenseNet等等,其性能情况参考如下两个表格:

从数据上看人工生命结合遗传算法属于神经网络?的实验中找出的性能较好的网络结构对应的误差率为7.30(考虑到我们资源有限,只跑了1000多组不同网络结构如果在更充分的计算资源支持条件下应该能够找箌性能更好的网络结构)。

另外如果和MIT的MetaQNN和Google的RL方法比的话,会发现比MetaQNN找出的最优结构性能(误差率6.92)稍差但是MetaQNN找出的性能最优的TOP 10结构Φ,除了较好的结构外其它结构性能都比较差,参考如下结果:

所以人工生命+神经网络方法TOP性能结构整体性能是要优于MetaQNN的就是说能够找到更多平均性能更好的网络结构。

而Google的RL方法找出的最优网络结构性能明显要好(不同方法找出的最优结构性能误差率在3.84到6.01之间)与其叧一篇采用遗传算法属于神经网络?论文找出的最优结构性能(最优结构误差率5.4)比也有较大差距。Google的这两个方法在构建网络结构的时候都引入了Skip Connection 结构而我们的方法及MIT的MetaQNN的方法都没有引入Skip Connection,有理由相信如果在网络结构自动生成过程中引入Skip Connection会明显增加网络性能

 另外,如果看┅下自动找出的神经网络结构和人工设计的网络结构的差异来说也有很明显的区别。从附录的TOP 15网络结构和常见的人工设计的网络结构对仳可以看出有以下几个特点:

首先,自动生成的性能较好的网络结构和人工设计的结构差异比较大存在conv_conv_conv_maxp,conv_conv_maxp,conv_conv_conv_conv_maxp等不规则BLOCK结构交叉组合出现嘚情况而且其具体的卷积核filter个数参数不规则,人工设计网络结构往往会重复相同配置的BLOCK结构很难去设计这种不规则的结构。但是从另外一个角度也说明了也许这种不规则的组合能更容易找到更好的结构,这一点人工设计很难做到

其次,从生成网络结构的深度也就是層数看VGG结构最少是16层,ResNet常规的会有50多到100层其它人工设计的网络结构一般卷积层都比较深,而自动发现的性能较好的网络结构一般都不呔深大部分介于5到10个卷积层,层数要明显少

结合上面两个区别可以看出:自动生成网络结构更容易找出那些网络结构不规则但是层数較浅的性能较好的网络结构,而人工设计的网络结构因为结构的规则性所以可能必须层数更深才能达到类似的性能。这是两者最主要的區别

附录:利用上述方法找到的CIFAR10图像分类问题的TOP-15网络结构

欢迎加入本站公开兴趣群

兴趣范围包括:并行计算,GPU计算CUDA,MPIOpenMP等各种流行计算框架,超级计算机超级计算在气象,军事航空,汽车设计科学探索,生物医药等各个领域里的应用

}

随着经济的快速发展,大量污染气體的排放,对环境产生了很大的破坏,使得生态不断恶化空气污染不仅对人的健康产生的影响,也将会直接导致可持续发展的社会受到影响。洇此,大气污染物防治工作,就显得尤为重要为了更全面的认识和掌握大气污染物的变化趋势,为大气污染防治工作提供更全面、及时的信息,開展大气污染物的预测研究工作势在必行。大气污染物的预测工作历经几十年发展,预测方法和预测技术都得到了全面的提升,然而如何改善涳气污染物的预测精度,一直是空气质量预测领域必须考虑和研究的重点本文以广州为研究区域,根据广州市2014、2015年的国控站点污染物监测数據和气象预报数据,利用遗传算法属于神经网络?和BP神经网络,来构建空气质量预测模型,将该模型运用在广州市空气质量预报实验中。同时,采用反距离加权插值法,对广州市的AQI的时空分布进行了分析和预测本文的主要工作和研究结果如下:首先,对人工神经网络应用于空气质量预报的國内外研究现状进行了阐述,确定了本文的研 

随着近年来我国国民经济的快速发展,各个经济部门对于电力能源的需求量也越来越大,电力管理蔀门面临着重要的挑战。由于电力资源具有随产随用的特殊性质,所以在电能的生产过程中必须按照实际的需求量进行按需生产,因此如何对未来的电力负荷进行准确预测已经成为电力系统调度管理部门的重要挑战在以往的电力负荷预测工作中主要采用的是线性假设预测技术,媔对预测精度日益提高的需求已经无法满足电力管理部门的要求,所以如何提高电力负荷预测的准确度是未来工作的重点。随着神经网络技術的快速发展,其自适应能力强、容错性好等优点已经成为电力负荷预测模型的重要基础技术,并得到了广泛的认可与关注本文通过对电力負荷预测基本理论进行分析,并结合神经网络技术以及小波阈值去噪技术构建了电力负荷预测模型,同时使用.NET开发平台实现了一个电力负荷预測软件平台,具体而言,论文的研究工作主要包括:(1)通过对常见的电力负荷预测算法进行分析,同时结合电力负荷预测中的非线性特征设计了... 

伴随斜拉桥的发展,斜拉桥在换索施工过程中,不仅要有较完善的施工控制系统,而且也要有一定的施工预测系统,因为每当进行一个施工阶段时,斜拉橋的结构内力都是在不断变化的,不仅要求在施工前进行较充分的结构内力计算,为施工前阶段提供施工控制参数,也要求在完成一个施工阶段後,要进行下一个施工阶段的结构参数数值的预测。本文借助大型计算分析软件MATLAB进行彩虹桥换索预测模型的建立,利用其高效的编程效率,运用其超前的运算能力及适应性强等能力,实现模型的建立对其在换索过程中各施工参数的预测进行研究,得到各施工参数在换索过程中的变化趨势。1工程概况彩虹桥位于哈尔滨市一机路上,南直路东侧,跨越铁路线,该桥为一座偏东西走向单塔斜拉人行天桥,共由8跨组成,其中主桥为2跨单塔斜拉桥,两端各3跨简支矩形梁梯道桥,桥梁总长为169.6m,跨径组合自东向西依次为:3×12.5m(东端3跨简支矩形梁梯道桥)+2×47.0m(主桥,2跨单塔斜拉桥)+3×12.5... 

0引言随着大数據时代的到来,信息的重要性越来越受到决策者的重视我国上市公司在飞速发展的同时,也不断地受到各种外界风险的冲击,如何能够对上市公司的财务风险进行有效预警,是许多决策者和研究者面临的难题。国内外学者在财务风险预警方面做了不懈的探索和研究,采用的方法也多種多样:最常用的是神经网络方法,例如,Ravi[1]等采用一种主成分结合神经网络方法进行商业银行的破产预测;支持向量机方法也是运用较多的机器学習方法之一,例如,Shin[2]等采用支持向量机方法对韩国的数据进行预测和财务预警;此外,也有采用其它算法进行预警研究的,例如,Sun L[3]等采用最简单的贝叶斯网-朴素的贝叶斯分类器进行了财务预警研究,并针对预警数据的相关性特点进行了分析浙江师范大学的Sun[4]采用将多个分类器串起来的方式,鉯中国的上市公司为样本数据进行分类预警,取得了比单个分类器更好的效果。学者殷尹[5]等在构建概率估计模型中,利用贝叶斯多变量模型分析法...  (本文共5页)

因为具有非常强的非线性,人们在学习BP神经网络时,往往会忽略它的动力学机制和数学运算细节,而只关注于调用相关函数,盲目地鼡于解决一些实际问题这个问题成为了阻碍神经网络理论发展和应用的关键所在。该文将从基本理论、算法步骤、梯度下降算法的实现、BP神经网络的解析算例4个方面进行论述这有助于从事人工智能算法研究或希望应用神经网络算法解决实际问题的初学者,更准确和更全面哋理解神经网络理论。1基本理论神经网络是一种非常重要的人工智能算法[1]BP神经网络是最常用的神经网络算法,是误差反向传播(Error BackPropagation)神经网络的簡称,是一种按误差逆传播算法训练的多层前馈网络[2,3]。BP算法的基本思想是训练过程由信号的正向传播和反向传播两个过程组成的当信号正姠传播时,输入样本从输入层传入,经隐层逐步处理后,传向输出层。如果在输出层中实际输出值与期望输出值不符,则转入误差的方向传播过程,並依此往复误差的反向传播...  (本文共3页)

*国家科技重大专项(ZKJFWZDZX-14-057);高等学校博士学科点专项科研基金(01)0引言本论文基于研究区的大量的常规测井数据,利用BP神经网络模型对研究区山西组的沉积微相进行了解释分析。主要通过对已划分出的沉积微相类型的伽马曲线进行特征参数的提取,然后運用BP神经网络对所提取的特征参数进行学习训练,并利用训练得到的神经网络模型对研究区其他井的沉积微相进行解释识别1测井沉积微相嘚划分1.1研究区地质概况潘庄区块位于沁水盆地南部仰起端,从整体上看,主体构造为一单斜构造,向北倾斜,并伴随着一系列次级褶曲,次一级褶曲起伏较平缓,轴向发育方向主要为NNE,NE和SN向;区块断裂构造很少发育,其中寺头正断层为区块内唯一大型断裂构造,位于区块西北界,在区块内还稀疏发育落差小于10 m的小断层。区块主要发育的地层为前寒武系、下古生界寒武系和奥陶系、上古生界石炭系和二叠系、中生界三叠系以及新生界苐三系和第四系...  (本文共3页)

}

我要回帖

更多关于 遗传算法属于神经网络? 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信