卷积神经网络反向传播理论推导
作者:互联网
本文首先简单介绍CNN的结构,并不作详细介绍,本文只要讲解CNN的反向传播,CNN的反向传播,其实并不是大多所说的和全连接的BP类似,CNN的全连接部分的BP是与它相同,但是CNN中卷积--池化、池化--卷积部分的BP是不一样的,仔细推导,还是有很多细节地方需要思考的,比如1、在前向传播的过程中,卷积层的输入,是通过卷积核与前一层的输出特征图卷积得来的,那么在反向传播的过程中该怎么处理?这个就与全连接神经网络不同了。2、由于在前向传播的时候,池化层会对前一层卷积层进行放缩,那么从池化层到卷积层BP的时候,小尺度的池化层怎么把误差反传到大尺度的卷积层(这里的大小是一般而言,卷积层一张特征图经池化之后尺度会变小)?这个就与全连接神经网络完全不同!3、公式推导中,或者某些库的函数实现过程中,卷积核为什么要翻转180度?ps.本文是根据汇报的PPT更改,里面有很多图和文字就直接截图了,里面的每一个公式都是我和F.Tao讨论和推导过的,如有错误欢迎指正。
还是先首先贴一张CNN结构图吧,下面这张图个人认为是结构很清晰的,每一层是什么,以及卷积层+池化层和全连接层在做什么工作都表达的很好,来源Google搜索。
要明白卷积操作是用来干嘛的,是用来提取特征的,反向传播的意义又是什么?因为初始的时候卷积核的值都是随机设定的,我们可以根据前向传播的预测结果,进行误差分析,不断地修改卷积核的值,使得更好的提取特征,就是反向传播的意义。
如果你觉得这篇文章看起来稍微还有些吃力,或者想要系统地学习人工智能,那么推荐你去看床长人工智能教程。非常棒的大神之作,教程不仅通俗易懂,而且很风趣幽默。点击这里可以查看教程。
对卷积和池化操作直观的理解就如下图:
对应的网络连接结构图如下所示: 这里要说明两个概念,一个是卷积,一个是协相关,这两个概念是很多人都不清楚的,以至于把协相关当成了卷积来使用。
那么卷积层对输入的卷积操作就变成了如下:
下面一下CNN中的几个注意的点:
可以从下图中找出对应的连接方式(注:下面的L包含了卷积和池化两个部分,但不妨碍理解):
下面三张图截取自3D CNN,为了更加详细说明每一层是什么,每一层那个是特征图,那些是神经元。
前向传播: 这里只说CNN前向传播不同于全连接前向传播的部分,即:输入层到卷积层和卷积层到池化层。
1、输入层到卷积层的前向传播输入层到卷积层,采用的是局部连接,参数共享,卷积操作的方式,进行计算的,有个最好的说明就是cs231n笔记中的gif图,现展示如下:
图中有两个卷积核,w0和w1,注:这两个卷积核是已经翻转过的,然后进行协相关操作。由于输入的是3个通道的图片,因此每个卷积核也必须是3个通道的。所谓局部连接、权值共享都在这幅图上体现的淋淋尽致,非常好的表达。 现作理论推导:
2、卷积层到池化层的前向传播:
前向传播比较简单,介绍就到这里,下面分析反向传播算法: CNN的反向传播其实与全连接神经网络的反向传播有很大不同,只是从最后的输出层到最后一个卷积层的池化层的误差计算方式是相同的,但是从池化层到卷积层,卷积层到输出层(or池化层)的误差传播方式与全连接网络是大不相同的。
参考:http://www.jefkine.com/general/2016/09/05/backpropagation-in-convolutional-neural-networks/
http://www.cnblogs.com/pinard/p/6494810.html
http://manutdzou.github.io/2016/05/15/CNN-backpropagation.html
标签:池化层,推导,卷积,传播,神经网络,层到,CNN,反向 来源: https://blog.csdn.net/qq_45073174/article/details/90379276