Xception: Deep Learning with Depthwise Separable Convolutions
作者:互联网
核心贡献:从Inception的思想:剥离时序卷积和空域卷积 得到启发,提出了Xception(Extreme Inception),希望能彻底解耦二者。
其他贡献:
-
本文提供了关于Inception的一种解释。
-
讨论了与现有深度可分离卷积的区别,并指出其最大影响因素是两层卷积之间的非线性化。
-
在两个图像分类数据库上的效果都超越了Inception V3,但参数量是一样的。
故事
Inception结构和思想
Inception结构的演进:In-Network[11] => 2014年GooLeNet(V1)[20] => Inception V2[7] => Inception V3[21] => Inception-ResNet[19]。
首先我们应该知道:一般的卷积实际上是在同时完成 通道互相关 和 空域 互相关。
这是基础。如果这一点不清楚,后面就没法看啦。
Inception的核心思想,就是解耦这两个操作:先做多个1×11×1卷积,得到多个通道互相关结果;然后再对这些结果进行空域互相关操作。
看图应该就明白了。最好能提前熟悉1×11×1卷积的原理和应用。
补充:V3有一些变种的思想是类似的,但不一样:它是希望解耦height-wise和width-wise的卷积,方法是级联7×17×1和1×71×7的卷积。
更进一步,以及现有的深度可分离卷积
上图可以等价为下图3所示的两步:
-
用一个1×1卷积,得到很多通道;
-
将这些通道分成几份(几百个通道分成3、4份),然后对每一份做正常的卷积(既包含空域,也有一定的通道互相关,但是少很多)。
既然如此,我们为什么不更进一步呢?我们让空域卷积只在单个通道上操作,即完全不含任何通道互相关信息。如图4:
得一提的是,TensorFlow和Keras里已经内置了类似的结构,称为深度可分离卷积。有两点不同:
-
通道互相关卷积 和 空域卷积 的顺序。现存结构中,空域卷积在前。
-
两层卷积之间是否有ReLU非线性。现存结构中,两层卷积中间没有ReLU激活。注意,Inception内每一层卷积后一般都有。
作者将展示:第一点无关紧要,然而第二点非常重要。
Xception结构
-
36层卷积。Entry flow进行一次(8层卷积),Middle flow重复8次(24层卷积),最后是Exit flow(4层卷积)。由于是分类任务,最后跟了FC层和逻辑回归。
-
一共有14个module包裹这36个卷积层。每个module都有头尾短连接。
实验
实验和V3比较,并且保证参数数量基本一致。优化方法都沿袭V3的方法。
实验结果:Xception更快、更好。
各模块的短连接有必要:
在 depthwise 和 pointwise 卷积之间的非线性激活是不好的。取消非线性激活,可以让收敛速度更快,效果更好:
这一点和Inception的报告是相反的。可能的原因是:Inception是将几百个通道分成3-4份,每一份都很多。因此非线性对于这种深度学习是有帮助的。但是,Xception的空域卷积只对单通道操作,深度不足,非线性反而会让信息丢失。
标签:Separable,Depthwise,卷积,V3,Deep,空域,Inception,Xception,通道 来源: https://www.cnblogs.com/ziwh666/p/12484601.html