卷积神经网络学习
作者:互联网
视频学习总结
一、卷积
1.损失函数的用处:衡量预测结果与真实情况的吻合程度。
2.卷积后输出结果为每个类别的概率,根据概率高低推测应属于那个标签。
卷积的目的:提取特征;不同的卷积核关注不同的信息。
3.传统神经网络vs卷积神经网络
传统神经网络:
将图片的每个像素与神经元进行连接。
若权重矩阵参数太多->过拟合(过度拟合数据集的特征)。
卷积神经网络:局部关联,参数共享。
大幅度减少了学习的参数量。
4.卷积是什么?
5.卷积的相关属性
ps:图像是以二维矩阵的形式输入神经网络的。
多卷积核,多通道的计算
二、池化:收缩操作
实际情况表明,绝大多数情况下最大值池化比平均值池化效果好。
三、全连接
四、几种典型的卷积神经网络
1.AlexNet
2.VGG
更深网络
3.GoogleNet
4.ResNet:
利用残差的思想解决梯度消失的问题。
代码练习
一、使用 PyTorch 进行CNN的训练与测试,涉及池化与卷积操作的作用
1.同参数同模型的小型全连接网络和CNN上训练结果对比
可以发现,CNN在具有几乎相同的参数量的情况下,网络的深度要更深,并且得到了更高的准确率。
2.打乱像素顺序再次在两个网络上训练与测试
通过对比可以发现,在打乱像素顺序后的数据训练后,全连接神经网络的正确率几乎没有变化,但卷积神经网络的正确率下降了一些。因为在进行卷积操作的时候,实际上是提取了像素局部的关系和特征,而在像素打乱后的数据集中,这样的关系特征没有了,从而降低了卷积神经网络的效果。
二、数据分类
使用CIFAR10数据集进行图像分类,它包含十个类别:‘airplane’, ‘automobile’, ‘bird’, ‘cat’, ‘deer’, ‘dog’, ‘frog’, ‘horse’, ‘ship’, ‘truck’。CIFAR-10 中的图像尺寸为3x32x32,也就是RGB的3层颜色通道,每层通道内的尺寸为32*32。
准确率为64%。
三、使用 VGG16 对 CIFAR10 分类
使用一个简化版的 VGG 网络,就能够显著地将准确率由 64%,提升到 84.92%
总结
通过视频了解到了卷积的具体计算过程和属性,损失函数的作用。卷积神经网络相对于传统神经网络,大幅度减少了学习的参数量,尽量避免过拟合。了解了池化、全连接的概念。了解了几种典型的卷积神经网络,从AlexNet开始,到VGG,再到GoogleNet和ResNet,卷积神经网络通过增加网络的宽度和深度,减少参数量,解决梯度消失的问题来提高预测的正确率。
标签:卷积,网络,像素,学习,正确率,神经网络,池化 来源: https://www.cnblogs.com/shenhongkong/p/15414930.html