其他分享
首页 > 其他分享> > 5_InceptionV2/V3

5_InceptionV2/V3

作者:互联网

Rethinking the Inception Architecture for Computer Vision重新思考计算机视觉中的Inception结构

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

网络设计原则

卷积分解

在这里插入图片描述

1个n * n卷积分解为1 * n卷积和n * 1卷积堆叠,对于3 * 3而言,参数减少1-(3+3)/9 = 33%

注意事项:非对称卷积在后半段使用效果才好,特别是特征图分辨率在12-20之间,本文在分辨率为17 * 17的时候使用非对称卷积分解

辅助分类层

辅助分类层再探讨
GoogLeNet-V1中提出辅助分类层,用于缓解梯度消失,提升低层的特征提取能力
本文对辅助分类层进行分析,得出结论

高效特征图的下降策略

传统池化方法存在信息表征瓶颈(representationalbottlenecks)问题(违反模型设计准则1),即特征图信息变少了(如图9左图所示)
简单解决方法:先用卷积将特征图通道数翻倍,再用池化
存在问题:计算量过大
解决方法:用卷积得到一半特征图,用池化得到一半特征图

在这里插入图片描述

用卷积得到一半特征图,用池化得到一半特征图
用较少的计算量获得较多的信息,避免信息表征瓶颈(representational bottlenecks)
该Inception-module用于35 * 35下降至17 * 17以及17 * 17下降至8 * 8

在这里插入图片描述

标签平滑

标签平滑
传统的One-hot编码存在问题——过度自信,导致过拟合
提出标签平滑,把One-hot中概率为1的那一项进行衰减,避免过度自信,衰减的那部分confience平均分到每一个类别中

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

inceptionV2/V3

Inception-V2针对v1主要变化:
1.采用3个3 * 3卷积替换1个7 * 7卷积,并且在第一个卷积就采用stride=2来降低分辨率

2.第二个3个3+3卷积,在第2个卷积才下降分辨率

3.第一个block增加一个inception-module,第一个inception-module只是将5 * 5卷积替换为2个3 * 3卷积

4.第二个block,处理17 * 17特征图,采用非对称卷积

5.第三个block,处理8 * 8特征图,遵循准则2,提出拓展的卷积

6.最后输出2048个神经元,V1是1024个神经元

在这里插入图片描述

InceptionV3:在lnceptionV2基础上改进4点
1.采用RMSProp优化方法

2.采用Label Smoothing正则化方法

3.采用非对称卷积提取17*17特征图

4.采用带BN的辅助分类层

在这里插入图片描述

从v2开始,基于上个模型添加新trick最后一个模型称为inception-v3

低分辨率图像分类策略

在这里插入图片描述

实验结果

在这里插入图片描述

单模型下网络对比

对比GoogLeNet-V1、V2,以及Inception-V2和本文采用的4个技巧,得到最优的Inception-V2 BN auxiliary(Inception-V3)

在这里插入图片描述

论文此表格TOP1和TOP2error应该互换,也是但模型对比

在这里插入图片描述

此为多模型对比

论文总结

关键点&创新点:

在这里插入图片描述

在这里插入图片描述

代码解读

基本组件:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

标签:辅助,17,卷积,特征,V3,InceptionV2,Inception,非对称
来源: https://blog.csdn.net/Code_Haruka/article/details/116894229