其他分享
首页 > 其他分享> > CNN基础论文复现----LeNet5 (一)

CNN基础论文复现----LeNet5 (一)

作者:互联网

文章目录


LeNet5原版论文已经放到了GitHub上: 点我下载

前言

大致看了一下文章,一共45页,属实是有点长啊。

我们只看基础概念和文本识别的介绍,以及LeNet5网络的部分就行了。

第1-3页

前两页都是一些历史背景和文章结构的介绍,大概看一下有个印象。

第三页开始介绍了一些概念:

第4页

第四页开始提出CNN卷积神经网络的一些概念,并提到将反向传播和基于梯度的学习方式相结合,将整个系统变成一个有联级的模块,每一个模块都实现一个函数。

第5-6页

第5-6页 为了体现CNN网络的优越性,说了一下全连接网络的存在的问题:

在第六页的末尾正式引入卷积网络,并且给出了几点卷积网络的好处。

1.在一定程度上有移动、缩放、旋转不变性。
2.local receptive fields:感受视野域(局部感受野)
3.shared weights : 权重共享
4.spatial or temporal subsampling :空间或时间子采样

关于上面三个概念这里就不展开说了,可以看我的另一篇文章,移步 基础概念详解

然后引入了经典的 LeNet-5 神经网络结构图,长下面这样:
在这里插入图片描述
简单说一下这个网络图的结构。

输入为 (32 * 32) -> 卷积层 (6 * 28 * 28) -> 池化层 (6 * 14 * 14) -> 卷积层( 16 * 10 * 10) -> 池化层(16 * 5 * 5) -> 线性层(120 -> 84 -> 10) 。

括号里面的数字就是 (通道数,长,宽) 这里的基础概念就不多说了 详解移步:卷积神经网络 CNN --基础部分

所以一共就是 7层网络 最后的线性层算三层。

第7-9页

第7页开始又引入了一些概念:

作者使用了池化层进一步模糊了输入的特征位置,这就使得卷积网络有了一定程度上的不变性,且可以看到使用的是平均池化层(看到后面才发现不是一般的平均池化层,就无语)。

使用池化层模糊输入的这个方法,原理是通过降低图像几何的空间分辨率来提高其不变性(即降低了特征图中显著特征的位置编码精度),后期再通过增加特征映射来补偿降低的分辨率。

7页末8页开头作者说了一下他这里用的平均池化层,要注意这里使用的平均池化层和我们平常用的平均池化不一样,并不是相加然后取平均值,作者这里的平均池化是乘了一个可训练系数然后再加上了一个可训练偏置值(大坑,后面细说)。

第八页中间段提到卷积层没有提取图像的全部特征,而不像我们现在做卷积是对整个图片做整体卷积。作者文中提到的目的是为了 打破对称性和让他们在不同的特征图中被迫提取尽量互补的特征。这可能类似于 dropout 算法?目的是为了防止过拟合降低模型的耦合提高鲁棒性?

关于 dropout算法 移步 什么是dropout?

9页最后说了一下损失函数相关的东西,介绍了一些RBF的问题,然后说了说权重共享和sigmoid的初始化设置。。。感觉无关紧要,没咋看,,跳过跳过了。。。。。。。

第一部分就先到这里了,后面开始就是具体的复现过程了。

标签:池化层,LeNet5,卷积,网络,----,神经网络,CNN,不变性,函数
来源: https://blog.csdn.net/qq_38737428/article/details/122581730