其他分享
首页 > 其他分享> > 卷积神经网络学习

卷积神经网络学习

作者:互联网

视频学习总结

 

一、卷积

1.损失函数的用处:衡量预测结果与真实情况的吻合程度。

2.卷积后输出结果为每个类别的概率,根据概率高低推测应属于那个标签。

卷积的目的:提取特征;不同的卷积核关注不同的信息。

3.传统神经网络vs卷积神经网络

传统神经网络:

将图片的每个像素与神经元进行连接。

若权重矩阵参数太多->过拟合(过度拟合数据集的特征)。

卷积神经网络:局部关联,参数共享。

大幅度减少了学习的参数量。

4.卷积是什么?

 

 

5.卷积的相关属性

ps:图像是以二维矩阵的形式输入神经网络的。

多卷积核,多通道的计算

 

二、池化:收缩操作

 

 

 

实际情况表明,绝大多数情况下最大值池化比平均值池化效果好。

 

三、全连接

 

 

四、几种典型的卷积神经网络

 

 

 

 

1.AlexNet

 

 

 

2.VGG

更深网络

3.GoogleNet

 

 

 

4.ResNet:

 

 

 

利用残差的思想解决梯度消失的问题。

 

代码练习

一、使用 PyTorch 进行CNN的训练与测试,涉及池化与卷积操作的作用

1.同参数同模型的小型全连接网络和CNN上训练结果对比

 可以发现,CNN在具有几乎相同的参数量的情况下,网络的深度要更深,并且得到了更高的准确率。

2.打乱像素顺序再次在两个网络上训练与测试

 

 通过对比可以发现,在打乱像素顺序后的数据训练后,全连接神经网络的正确率几乎没有变化,但卷积神经网络的正确率下降了一些。因为在进行卷积操作的时候,实际上是提取了像素局部的关系和特征,而在像素打乱后的数据集中,这样的关系特征没有了,从而降低了卷积神经网络的效果。

二、数据分类

 使用CIFAR10数据集进行图像分类,它包含十个类别:‘airplane’, ‘automobile’, ‘bird’, ‘cat’, ‘deer’, ‘dog’, ‘frog’, ‘horse’, ‘ship’, ‘truck’。CIFAR-10 中的图像尺寸为3x32x32,也就是RGB的3层颜色通道,每层通道内的尺寸为32*32。

准确率为64%。

三、使用 VGG16 对 CIFAR10 分类

使用一个简化版的 VGG 网络,就能够显著地将准确率由 64%,提升到 84.92%

总结

通过视频了解到了卷积的具体计算过程和属性,损失函数的作用。卷积神经网络相对于传统神经网络,大幅度减少了学习的参数量,尽量避免过拟合。了解了池化、全连接的概念。了解了几种典型的卷积神经网络,从AlexNet开始,到VGG,再到GoogleNet和ResNet,卷积神经网络通过增加网络的宽度和深度,减少参数量,解决梯度消失的问题来提高预测的正确率。

标签:卷积,网络,像素,学习,正确率,神经网络,池化
来源: https://www.cnblogs.com/shenhongkong/p/15414930.html