其他分享
首页 > 其他分享> > 最近被旷视的YOLOX刷屏了!

最近被旷视的YOLOX刷屏了!

作者:互联网

目录

论文主要信息

文章概要

背景

YOLOX-DarkNet53

实现细节

YOLOv3 baseline

笔者认为,在选baseline的时候,应该具备至少两点:性能还不错,用的trick还少。像常用的RetinaNet,基本就是随手造的一个普通模型,纯为focal loss服务的,几乎没加太多trick,这样的工作就很适合用来验证我们自己改进出来的东西是否好用。

有的时候trick用得太多,自己的东西加上去不但不涨点,还掉点。但要注意,这个时候不一定是你的东西有问题,很可能是和哪一个trick冲突了。

——引自《目标检测》-第24章-YOLO系列的又一集大成者:YOLOX! - 知乎 (zhihu.com)

这篇知乎文章不错,建议再次阅读。

Decoupled head

实验

以下2个实验说明,coupled head会损害性能

img

img

思路

img

YOLO在FPN自顶向下路径上的3个level(P5、P4、P3,通道数分别为1024、512、256)上进行detection

cls分支只计算正样本分类loss。简而言之cls用于分类但不用于划分正负样本,正负样本交给obj branch做了。另外使用SimOTA之后,FCOS样本匹配阶段的FPN分层就被取消了,匹配(包括分层)由SimOTA自动完成

————《目标检测》-第24章-YOLO系列的又一集大成者:YOLOX! - 知乎 (zhihu.com)一文中paper原作者的评论

story

我们一开始并没有计划对检测头进行解耦,而是在将 YOLOX 推进到“端到端( 无需NMS )”时发现,不论调整损失权重还是控制梯度回传,End2end 的 YOLOX 始终比标准的 YOLOX 低 4~5 个点( 如 Table1 ),这与我们在 DeFCN 里获得的认知不符。偶然间我们把原始的 YOLO Head 换成 decoupled head,发现这里的差距又显著缩小了,这样的现象说明当前 YOLO Head 的表达能力可能有所欠缺。于是我们将 decoupled head 应用到了非 End2End YOLO 上,结果就如 Fig.3 的所示:不仅在峰值的性能有所提升,收敛速度也明显加快。结合之前 End2end 的实验,这两个现象充分说明 YOLO 系列一直以来使用的检测头可能是不合理的。

————如何评价旷视开源的YOLOX,效果超过YOLOv5? - 知乎 (zhihu.com)中paper原作者的回答

Strong data augmentation

Anchor-free

multi positives

SimOTA

End-to-end(NMS-free) YOLO

消融实验

img

性能对比

除了darknet53,YOLOX在其它不同size的backbone上同样实现了improvement

img

这张图中不同方法的软硬件差异是somewhat controlled

YOLOX-L

img

YOLOX-Tiny & YOLOX-Nano

img

Model size V.S. Data augmentation

img

SOTA

img

参考链接

本笔记的参考链接,都很不错,特别是第2篇,建议阅读!

标签:旷视,head,end,刷屏,YOLO,free,YOLOX,anchor
来源: https://www.cnblogs.com/chouxianyu/p/15065354.html