其他分享
首页 > 其他分享> > 0617 每日文献阅读 打卡

0617 每日文献阅读 打卡

作者:互联网

Read Data: 0616

Publication: CVPR 2018

Title: Squeeze-and-Excitation Networks

Participants: Jie Hu, Li Shen, Samuel Albanie, Gang Sun, Enhua Wu

Aim:

希望显式地建模特征通道之间的相互依赖关系。

Research Question:

作者并未引入新的空间维度来进行特征通道间的融合,而是采用了一种全新的「特征重标定」策略。具体来说,就是通过学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征并抑制对当前任务用处不大的特征。

Method:

本文提出了一个新模块,称之为“Squeeze-and-Excitation(SE)块”,该单元通过明确建模通道之间的相互依赖,自适应地重新校准通道相关的特性响应。SENet的核心思想在于通过网络根据loss去学习特征权重,使得有效的feature map权重大,无效或效果小的feature map权重小的方式训练模型达到更好的结果。当然,SE block嵌在原有的一些分类网络中不可避免地增加了一些参数和计算量,但是在效果面前还是可以接受的。

总的来看:给定一个输入x,其特征通道数为c_1,通过一系列卷积等一般变换后得到一个特征通道数为c_2的特征。与传统的CNN不一样的是,接下来通过三个操作来重标定前面得到的特征。

首先是Squeeze操作,顺着空间维度来进行特征压缩,将每个二维的特征通道变成一个实数,这个实数某种程度上具有全局的感受野,并且输出的维度和输入的特征通道数相匹配。它表征着在特征通道上响应的全局分布,而且使得靠近输入的层也可以获得全局的感受野,这一点在很多任务中都是非常有用的。

其次是Excitation操作,它是一个类似于循环神经网络中门的机制。通过参数w来为每个特征通道生成权重,其中参数w被学习用来显式地建模特征通道间的相关性。

最后是一个Reweight的操作,将Excitation的输出的权重看做是进过特征选择后的每个特征通道的重要性,然后通过乘法逐通道加权到先前的特征上,完成在通道维度上的对原始特征的重标定。

Results:

Squeeze-and-Excitation Networks(简称 SENet)是 Momenta 胡杰团队(WMW)提出的新的网络结构,SENet并不是一个完整的网络结构,而是一个子结构,可以嵌到其他分类或检测模型中,作者采用SENet block和ResNeXt结合在ILSVRC 2017的分类项目中拿到第一,在ImageNet数据集上将top-5 error降低到2.251%,原先的最好成绩是2.991%。

Discussion:

Conclusion:

在本文中,我们提出了SE块,这是一种架构单元,通过使网络能够执行动态信道特征重新校准来提高网络的表示能力。大量的实验证明了SENets的有效性,它可以在多个数据集和任务中实现最先进的性能。此外,SE块揭示了以前的体系结构无法充分地对信道相关特性进行建模的缺陷。

Further:

希望这一发现可以被证明对其他需要强区分特征的任务有用。最后,由SE块产生的特征重要值可以用于其他任务,如用于模型压缩的网络剪枝。

Ref:

 

 

 

标签:Excitation,特征,SENet,文献,打卡,Squeeze,0617,SE,通道
来源: https://www.cnblogs.com/xmy-0904-lfx/p/14893047.html