其他分享
首页 > 其他分享> > 卷积神经网络基础知识点总结

卷积神经网络基础知识点总结

作者:互联网

卷积神经网络

卷积层

卷积层

鲁棒性: 也就是当数据发生变化或者其他的原因,算法的效率稳定。

卷积的特性: 拥有局部感知机制,因为每个卷积核的权值是不变的所以具有权值共享的特点,目的就是进行图像特征提取。

普通神经网络

上图的参数大大的减少了,这就是权值共享的优势。

在这里插入图片描述

  • 卷积的深度就是卷积核的个数,也就是输出特征矩阵的channel与卷积核个数相同。
  • 卷积核的channel和输入特征层的channel相同


激活函数
在这里插入图片描述

使用较多的是relu激活函数。在用relu的时候尽量不要用很大的学习率进行学习,这样的话会导致很多神经元失活,神经元一旦失活在进行反向传播的时候可能就不会再次激活


卷积之后的矩阵尺寸
在这里插入图片描述

池化层

MaxPooling下采样

目的:对特征图进行稀疏处理,减小数据运算量。

在这里插入图片描述
AveragePooling下采样层

在这里插入图片描述
下采样层的特点

  • 没有训练参数,不像卷积层每个卷积核是带有固定的参数的。
  • 只改变特征矩阵的宽度和高度,并不会改变特征矩阵的深度。
  • 一般情况下,下采样层的size和stride相同。

反向传播

误差的计算
在这里插入图片描述
在这里插入图片描述

w的第一个1表示上一层的第几个节点,第二个1表示本层中的第几个节点,上标的1就表示这是属于第几层。

在这里插入图片描述

最后一层的激活函数用softmax

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
误差的反向传播
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
更新权重
在这里插入图片描述

在实际情况下更新权重的时候并不是指向损失梯度全局最优的方向,因为我们不可能一次性的将数据载入内存,我们可以一次将几十张图片载入内存,为batch设置大小,然后分批次的载入图片

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

优点:能够有效抑制样本噪声的影响

在这里插入图片描述

  • St就是对我们的损失梯度的平方然后进行求和,在运算的过程中随着St的增大学习率会逐渐的减小,这样就实现了自适应学习率的情况
  • 缺点就是学习率下降到的太快可能还没有收敛就停止了训练。

针对Adagrad优化器的缺点:有人提出了RMSProp优化器(自适应学习率)
在这里插入图片描述
添加的这个参数就是控制学习率的衰减速度的,也就是梯度的和不会增加的太快,从而解决了Adagrad优化器没有收敛就停止了训练这种情况。
在这里插入图片描述
我们常使用的是SGD,虽然SGD速度很慢但是它是梯度方向是非常理想的,
还有就是SGD+Momentum以及Adam优化器。

标签:采样,知识点,卷积,矩阵,学习,神经网络,SGD,就是
来源: https://blog.csdn.net/qq_35690040/article/details/118633064