在卷积神经网络添加池化层中加入池化层,变换的不变形会被保留吗

卷积神经网络CNN_图文_百度文库
您的浏览器Javascript被禁用,需开启后体验完整功能,
享专业文档下载特权
&赠共享文档下载特权
&100W篇文档免费专享
&每天抽奖多种福利
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
卷积神经网络CNN
&&对CNN发展、算法介绍以及改进和应用的总结。。。
阅读已结束,下载本文需要
定制HR最喜欢的简历
下载文档到电脑,同时保存到云知识,更方便管理
加入VIP
还剩23页未读,
定制HR最喜欢的简历
你可能喜欢人工智能LeadAI(atleadai)原文发表时间:本文参与,欢迎正在阅读的你也加入,一起分享。分享分享文章到朋友圈分享文章到 QQ分享文章到 QQ 空间分享文章到微博复制文章链接到剪贴板扫描二维码扫描关注云+社区413 篇文章64 人订阅相关文章来自专栏73来自专栏347来自专栏60来自专栏60来自专栏326来自专栏344扫描二维码扫描关注云+社区您正在使用IE低版浏览器,为了您的雷锋网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
发私信给AI研习社
导语:详细介绍了基于 Region Proposal 的方法和直接预测边界框的方法。
同步到新浪微博
聚焦数据科学,连接AI开发者。
当月热门文章
为了您的账户安全,请
您的邮箱还未验证,完成可获20积分哟!
您的账号已经绑定,现在您可以以方便用邮箱登录
请填写申请人资料学习笔记04|卷积神经网络入门(上) - 麻烦催一下我主人学习学习笔记04|卷积神经网络入门(上)作者:麻烦催一下我主人学习/ 公众号:winnie18-&发布时间: 图像处理中,往往会将图像看成是一个或多个的二维向量(黑白图片,只有一个颜色通道;如果是RGB表示的彩色图片则有三个颜色通道,可表示为三张二维向量)。传统的神经网络都是采用全连接的方式,即输入层到隐藏层的神经元都是全部连接的,这样做将导致参数巨大,使得网络训练耗时甚至难以训练,而CNN则通过局部连接,权值共享等方法避免这一困难。近年来卷积神经网络在多个方向持续发力,在语音识别、人脸识别、通用物体识别、运动分析、自然语言处理甚至脑电波分析方面均有突破。什么是卷积卷积就是把数据通过一个卷积核变化成特征,便于后面的分离。eg:输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28*28*1的特征图,上图是用了两个filter得到了两个特征图。我们通常会使用多层卷积层来得到更深层次的特征图。卷积层的计算假设有一个5*5的图像,使用一个3*3的filter进行卷积,想得到一个3*3的Feature Map,如下所示:我们首先对图像的每个像素进行编号,用Xi,j表示图像的第i行第j列元素;对filter的每个权重进行编号,用Wm,n表示第m行第n列权重,用Wb表示filter的偏置项;对Feature Map的每个元素进行编号,用ai,j表示Feature Map的第i行第j列元素;用f表示激活函数(这个例子选择relu函数作为激活函数)。然后,使用下列公式计算卷积:具体计算方法和结果如下图。上面的计算过程中,步幅(stride)为1。步幅可以设为大于1的数。当步幅设置为2的时候,Feature Map就变成2*2了。这说明图像大小、步幅和卷积后的Feature Map大小是有关系的。事实上,它们满足下面的关系:在上面两个公式中,W2是卷积后Feature Map的宽度,W1是卷积前图像的宽度,F是filter的宽度;P是Zero Padding数量,Zero Padding是指在原始图像周围补几圈0,如果P的值是1,那么就补1圈0,S是步幅。高度计算公式与宽度相似。前面是深度为1的卷积层的计算方法,如果深度大于1怎么计算呢?其实也是类似的。如果卷积前的图像深度为D,那么相应的filter的深度也必须为D。D是深度;F是filter的大小(宽度或高度,两者相同);Wd,m,n表示filter的第d第m行第n列权重;ad,i,j示图像的第d层第i行第j列像素;其它的符号含义和之前一样。此外,每个卷积层可以有多个filter。每个filter和原始图像进行卷积后,都可以得到一个Feature Map。因此,卷积后Feature Map的深度(个数)和卷积层的filter个数是相同的。下面的动画显示了包含两个filter的卷积层的计算。我们可以看到7*7*3输入,经过两个3*3*3filter的卷积(步幅为2),得到了3*3*2的输出。另外我们也会看到下图的Zero padding是1,也就是在输入元素的周围补了一圈0。Zero padding对于图像边缘部分的特征提取是很有帮助的。以上就是卷积层的计算方法。什么是池化池化即对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征。Pooling的方法很多,最常用的是Max Pooling。Max Pooling实际上就是在n*n的样本中取最大值,作为采样后的样本值。下图是2*2 max pooling:除了Max Pooing之外,常用的还有Mean Pooling——取各样本的平均值。对于深度为D的Feature Map,各层独立做Pooling,因此Pooling后的深度仍然为D。什么是卷积神经网络卷积神经网络由三部分构成。第一部分是输入层。第二部分由n个卷积层和池化层的组合组成。第三部分由一个全连结的多层感知机分类器构成。每层的神经元是按照三维排列的,也就是排成一个长方体的样子,有宽度、高度和深度。即INPUT-CONV-RELU-POOL-FC。(CONV:卷积计算层,线性乘积求和。RELU:激励层,ReLU是激活函数的一种。POOL:池化层,简言之,即取区域平均或最大)之前有推送过神经网络入门一文,卷积神经网络与普通的神经网络的区别在于:在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接。一个卷积层中通常包含若干个特征平面(feature map),每个特征平面由一些矩形排列的神经元组成,同一特征平面的神经元共享权值,这里共享的权值就是卷积核。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中卷积核将学习得到合理的权值。共享权值(卷积核)带来的直接好处是减少网络各层之间的连接,同时又降低了过拟合的风险。子采样也叫做池化(pooling),通常有均值子采样(mean pooling)和最大值子采样(max pooling)两种形式。子采样可以看作一种特殊的卷积过程。卷积和子采样大大简化了模型复杂度,减少了模型的参数。上图展示的神经网络,我们看到输入层的宽度和高度对应于输入图像的宽度和高度,而它的深度为1。接着,第一个卷积层对这幅图像进行了卷积操作,得到了三个Feature Map。这里的"3"可能是让很多初学者迷惑的地方,实际上,就是这个卷积层包含三个Filter,也就是三套参数,每个Filter都可以把原始输入图像卷积得到一个Feature Map,三个Filter就可以得到三个Feature Map。至于一个卷积层可以有多少个Filter,那是可以自由设定的。也就是说,卷积层的Filter个数也是一个超参数。我们可以把Feature Map可以看做是通过卷积变换提取到的图像特征,三个Filter就对原始图像提取出三组不同的特征,也就是得到了三个Feature Map,也称做三个通道(channel)。在第一个卷积层之后,Pooling层对三个Feature Map做了下采样,得到了三个更小的Feature Map。接着,是第二个卷积层,它有5个Filter。每个Fitler都把前面下采样之后的3个Feature Map卷积在一起,得到一个新的Feature Map。这样,5个Filter就得到了5个Feature Map。接着,是第二个Pooling,继续对5个Feature Map进行下采样,得到了5个更小的Feature Map。网络的最后两层是全连接层。第一个全连接层的每个神经元,和上一层5个Feature Map中的每个神经元相连,第二个全连接层(也就是输出层)的每个神经元,则和第一个全连接层的每个神经元相连,这样得到了整个网络的输出。卷积神经网络的激活函数最近几年卷积神经网络中,激活函数往往不选择sigmoid或tanh函数,而是选择relu函数。Relu函数如图。笔记大部分来源于:https://www.zybuluo.com/hanbingtao/note/485480作者@hanbingtao相关文章猜你喜欢全民看吧我家有两个宝宝化妆金桥教育培训学校跟amber一起看世界其他栏目#统计代码}

我要回帖

更多关于 卷积神经网络池化层 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信