其他分享
首页 > 其他分享> > Bag of Tricks for Image Classification with Convolutional Neural Networks笔记

Bag of Tricks for Image Classification with Convolutional Neural Networks笔记

作者:互联网

以下内容摘自《Bag of Tricks for Image Classification with Convolutional Neural Networks》。

1 高效训练

1.1 大batch训练

当我们有一定资源后,当然希望能充分利用起来,所以通常会增加batch size来达到加速训练的效果。但是,有不少实验结果表明增大batch size可能降低收敛率,所以为了解决这一问题有人以下方法可供选择:

1.1.1 线性增加学习率

一句话概括就是batch size增加多少倍,学习率也增加多少倍

例如最开始batch size=256时, lr=0.1。后面batch size变成b后,lr=\(0.1\times \frac{b}{256}\)

1.1.2 学习率warmup

在训练最开始,所有的参数都是随机初始化的,因此离最终的解还需要很多次迭代才能到达。一开始使用一个太大的学习率会导致不稳定,所以可以在最开始使用一个很小的学习率,然后逐步切换到默认的初始学习率。

例如我们可以设定在前面100个batch学习率由0线性增加到默认初始值0.1,也就是说每个batch学习率增加0.001

1.1.3 \(\gamma=0\) for BN layer

现在很多网络结构中都会用到BatchNorm层,而我们知道BN层会对数据作如下操作:

1.标准化输入: \(\hat{x_1}=\text{standardize}(x)\)
2.伸缩变换(scale transformation): \(\hat{x_2}=\gamma\hat{x_1}+\beta\)

上面步骤中的\(\gamma,\beta\)都是可学习的参数,分别初始化为0,1。

原文解释这样做的好处如下(没太懂什么意思,懂得麻烦解释一下):

Therefore, all residual blocks just return their inputs, mimics network that has less number of layers and is easier to train at the initial stage.

1.1.4 No bias decay

意思就是我们可以weight decay,但是不用做bias decay

1.2 低精度训练

P. Micikevicius,et al. Mixed precision training.中提出将所有的参数和激活值用FP16存储,并且使用FP16来计算梯度。另外,所有的参数都需要一份FP32的拷贝用来做参数更新。另外将loss乘上一个标量以便求得的梯度范围可以与FP16对齐。

2. 模型设计Trick

下面以ResNet为例进行介绍有哪些模型设计的Trick。

下图示何凯明提出的ResNet的示意图,可以看到主要由三部分组成:

下面介绍一下可以对上面的ResNet做哪些魔改:

可以看到主要将7*7的卷积核改成了3个3*3的卷积核,这样效果类似,而且参数更少。

image.png

实验结果:

Model #params FLOPs Top-1 Top-5
ResNet-50 25 M 3.8 G 76.21 92.97
ResNet-50-B 25 M 4.1 G 76.66 93.28
ResNet-50-C 25 M 4.3 G 76.87 93.48
ResNet-50-D 25 M 4.3 G 77.16 93.52
3. 训练Trick

3.1 Cosine learning rate decay

计算公式如下:

\[\eta_{t}=\frac{1}{2}\left(1+\cos \left(\frac{t \pi}{T}\right)\right) \eta \]

其中\(\eta\)是初始化学习率。

示意图如下:

image.png

3.2 label smoothing

这个方法我在之前的一个项目中用过,但是感觉没什么效果,所以各种Trick还是得视情况而定,并不是万能的。

通常分类任务中每张图片的标签是one hot形式的,也就是说一个向量在其对应类别索引上设置为1,其他位置为0,形如[0,0,0,1,0,0]。

label smoothing就是将类别分布变得平滑一点,即

\[q_{i}=\left\{\begin{array}{ll}{1-\varepsilon} & {\text { if } i=y} \\ {\varepsilon /(K-1)} & {\text { otherwise }}\end{array}\right. \]

其中\(q_{i}\)就代表某一类的ground truth,例如如果\(i==y\),那么其最终真实值就是\(1-\varepsilon\),其它位置设置为\(\varepsilon /(K-1)\),而不再是。这里的\(\varepsilon\)是一个很小的常数。

3.3 Mixup

方法如下:

每次随机抽取两个样本进行加权求和得到新的样本,标签同样做加权操作。公式中的\(\lambda\in[0,1]\)是一个随机数,服从\(\text{Beta}(\alpha,\alpha)\)分布。

\[\begin{aligned} \hat{x} &=\lambda x_{i}+(1-\lambda) x_{j} \\ \hat{y} &=\lambda y_{i}+(1-\lambda) y_{j} \end{aligned} \]



MARSGGBO♥原创





2019-9-4



标签:Convolutional,varepsilon,Classification,Neural,卷积,ResNet,batch,size,lambda
来源: https://blog.51cto.com/u_15187743/2799709