其他分享
首页 > 其他分享> > 论文阅读 Rethinking Pre-training and Self-training

论文阅读 Rethinking Pre-training and Self-training

作者:互联网

 

--> 自训练只是分类,回归能进行自训练吗?

 

 

论文阅读 Rethinking Pre-training and Self-training

论文阅读 Rethinking Pre-training and Self-training

晚星 晚星  

Paper : https://arxiv.org/abs/2006.06882

概述

Google Brain 的文章,一作都是大牛。这篇文章延续之前何恺明的 Rethinking ImageNet Pre-Training[1],在之前的基础上通过大量的实验验证了在检测和分割任务中 Pre-training 和 Self-training 的效果,主要得出了以下几个结论:

最后使用 self-training,在检测和分割使用的 SOTA Baseline 上都有明显涨点,COCO 54.3 AP(+1.5),PASCAL segmentation 90.5 mIOU(+1.5%)。但是相应的,实验中训练需要 1.3x - 8x 的时间

Methodology

主要部分在实验,这里介绍一些实验设置,实验中设置的变量主要有两种,数据增强策略和预训练模型

实验中使用的 Self-training 使用基于 Noisy Student 训练的方法

所有实验训练到收敛为止,例如当随机初始化时, Augment-S1 用了 45k iterations,Augment-S4 用了 120k iterations

Experiments

Pre-training

对 [1] 中的发现进行扩展,得出两个结论

Self-training

分析 self-training 的效果,得出两个结论

Self-supervised pre-training

对于 Self-supervised pre-training,同样在高强度数据增强策略时会损害性能。这里使用 Resnet50 作为 backbone,使用 100% COCO 数据和 Augment-S4

Exploring the limits of self-training and pre-training

结合之前的结论对 SOTA baseline 做优化

分割任务中由于 PASCAL 数据集规模比较小,因此使用预训练模型效果更好

Discussion

 

[1] He K, Girshick R, Dollár P. Rethinking imagenet pre-training

发布于 06-28 深度学习(Deep Learning) 计算机视觉 目标检测

文章被以下专栏收录

深入深度学习 深入深度学习

推荐阅读

Learning Data Augmentation Strategies论文阅读

Learning Data Augmentation Strategies论文阅读

chaser Jigsaw pre-training:摆脱ImageNet,拼图式预训练方法 | ECCV20

Jigsaw pre-training:摆脱ImageNet,拼图式预训练方法 | ECCV20

Vince...发表于晓飞的算法...

Rethinking Pre-training and Self-training

Paper: Rethinking Pre-training and Self-training Arxiv: https://arxiv.org/abs/2006.06882v1IntroductionPre-training是深度学习领域常见的一种方法,在计算机视觉、自然语言处理和语…

yanwa...发表于AI约读社 论文阅读(小目标检测)

论文阅读(小目标检测)

kyno发表于CV学习之...

还没有评论

  写下你的评论...                

 

标签:Pre,Rethinking,training,pre,训练,Self,self
来源: https://www.cnblogs.com/cx2016/p/14069647.html