其他分享
首页 > 其他分享> > DRConv:旷视提出区域感知动态卷积,多任务性能提升 | CVPR 2020

DRConv:旷视提出区域感知动态卷积,多任务性能提升 | CVPR 2020

作者:互联网

论文提出DRConv,很好地结合了局部共享的思想并且保持平移不变性,包含两个关键结构,从实验结果来看,DRConv符合设计的预期,在多个任务上都有不错的性能提升

来源:晓飞的算法工程笔记 公众号

论文: Dynamic Region-Aware Convolution

Introduction


  目前主流的卷积操作都在空间域进行权值共享,而如果想得到更丰富的信息,只能通过增加卷积的数量来实现,这样不仅计算低效,也会带来网络优化困难。与主流卷积不同,local conv在不同的像素位置使用不同的权值,这样能够高效地提取丰富的信息,主要应用在人脸识别领域,但local conv不仅会带来与特征图大小相关的参数量,还会破坏平移不变性。

  考虑到以上两种卷积的优劣,论文提出了DRConv(Dynamic Region-Aware Convolution),DRConv的结构如图1,首先通过标准卷积来生成guided feature,根据guided feature将空间维度分成多个区域,卷积核生成模块$G(\cdot)$根据输入图片动态生成每个区域对应的卷积核。DRConv能够可学习地为不同的像素位置匹配不同的卷积核,不仅具有强大的特征表达能力,还可以保持平移不变性。由于卷积核是动态生成的,能比local conv减少大量的参数,而整体计算量几乎和标准卷积一致。
  论文的主要贡献如下:

Our Apporach


Dynamic Region-Aware Convolution

  对于标准卷积,定义输入$X\in \mathbb{R}^{U\times V\times C}$,空间维度$S\in \mathbb{R}^{U\times V}$,输出$Y\in \mathbb{R}^{U\times V\times O}$,权重$W\in \mathbb{R}^C$,输出的每个channel的计算如公式1,$*$为二维卷积操作。

  对于基础的local conv,定义非共享权重$W\in \mathbb{R}^{U\times V\times C}$,输出的每个channel计算如公式2,其中$W_{u,v,c}^{(o)}$表示位置$(u,v)$上的独立非共享卷积核,即卷积在特征图上移动时,每次更换不同的卷积核。

  结合以上公式,定义guided mask$M={S_0, \cdots,S_{m-1}}$用来表示空间维度划分的$m$个区域,$M$根据输入图片的特征进行提取,每个区域$S_t(t\in [0, m-1])$仅使用一个共享的卷积核。定义卷积核集$W=[W_0,\cdots,W_{m-1}]$,卷积核$W_t \in \mathbb{R}^C$对应于区域$S_t$。输出的每个channel的计算如公式3,即卷积在特征图上移动时,每次根据guided mask更换对应的卷积核。
  从上面的描述可以看到,DRConv包含两个主要部分:

Learnable guided mask

  作为DRConv的重要部分,guided mask决定了卷积核在空间维度上的分布,该模块由损失函数指导优化,从而能够适应输入的空间信息变化,从而改变卷积核的分布。

  对于包含$m$个channel的$k\times k$DRConv,定义$F$为guided feature,$M$为guided mask,$M$上的每个位置$(u,v)$的值计算如公式4,函数$argmax(\cdot)$输出最大值的下标,$F_{u,v}$为位置$(u,v)$上的guided feature向量,所以$M$的值为$[0, m-1]$,用来指示该位置对应的卷积下标。

  为了让guided mask可学习,必须得到用来生成guided feature的权值的梯度,但由于$argmax(\cdot)$的使用导致guided feature的梯度无法计算,所以论文设计了类似的梯度。

  根据公式4获得guided mask,根据公式5得到每个位置$(u,v)$得到卷积核$\tilde{W}{u,v}$,其中$W{M_{u,v}}$是$G(\cdot)$生成的卷积核集$[W_0, \cdots, W_{m-1}]$中的一个,$M_{u,v}$是guided feature在位置$(u,v)$上值最大的channel下标,通过这种方式来$m$个卷积核与所有位置的关系,将空间像素分为$m$个组。使用相同卷积核的像素包含相似的上下文信息,主要由于具有平移不变性标准卷积将这些信息传递给了guided feature。

  为了使梯度得到回传,首先用$\hat{F}$来代替guided mask的one-hot表示,计算如公式6所示,在channel维度上进行$softmax(\cdot)$,期望$\hat{F}{u,v}j$能尽可能地接近0和1,这样$\hat{F}_{u,v}j$与guided mask的one-hot表示将非常相似。公式5可以看作是卷积核集$[W_0,\cdots,W{m-1}]$乘以$M_{u,v}$的one-hot表示,这里替换为$\hat{F}_{u,v}^j$。

  $\hat{F}{u,v}^j$的梯度计算如公式7,$\langle, \rangle $为点积,$\bigtriangledown{\cdot} \mathcal{L}$表示guided mask对应loss函数的梯度,如图a,公式7近似于公式5的反向传播。

  公式8为公式6的反向传播,$\odot$为逐元素相乘,如果不设计特殊的反向传播,SGD将不能对相关的参数进行优化,因为函数$argmax(\cdot)$是不可导的。因此,$softmax(\cdot)$是用来接近$argmax(\cdot)$,通过替换函数将梯度回传到guided feature,是的guided mask可学习。

Dynamic Filter: Filter generator module

  在DRConv中,使用卷积核生成模块来生成不同区域的卷积核,由于不同图片的特征不同,在图片间共享的卷积核不能高效地提取其独有的特征,需要定制化的特征来专注不同图片的特性。

  定义输入$X\in \mathbb{R}^{U\times V\times C}$,包含两层卷积的卷积核生成模块$G(\cdot)$,$m$个卷积$W=[W_0,\cdots,W_{m-1}]$,每个卷积仅用于区域$R_t$。如图b所示,为了获得$m$个$k\times k$卷积,先使用自适应平均池化将$X$下采样为$k\times k$,然后使用两个连续的$1\times 1$卷积,第一个使用$sigmoid(\cdot)$进行激活,第二个设定$group=m$,不使用激活。卷积核生成模块能够增强网络获取不同图片特性的能力,由于根据输入的特征生成卷积核,每个卷积核的关注点能够根据输入的特性进行自动地调整。

Experiments


Classification

Face Recognition

COCO Object Detection and Segmentation

Ablation Study


Visualization of dynamic guided mask

Different model size

Different region number

Different spatial size

CONCLUSION


  论文提出DRConv,很好地结合了局部共享的思想并且保持平移不变性,包含两个关键结构,首先使用guided mask对特征图中的像素划分到不同的区域,其次使用卷积核生成模块动态生成区域对应的卷积核。从实验结果来看,DRConv符合设计的预期,特别是图3的guided mask的可视化结果,在多个任务上都有不错的性能提升。



如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】

work-life balance.

标签:旷视,卷积,cdot,guided,mask,times,CVPR,2020,DRConv
来源: https://www.cnblogs.com/VincentLee/p/13049303.html