首页 > TAG信息列表 > CVer
SegFormer:使用Transformer进行语义分割的简单高效设计
前言 将 Transformer 与轻量级多层感知 (MLP) 解码器相结合,表现SOTA!性能优于SETR、Auto-Deeplab和OCRNet等网络,代码即将开源! 注1:文末附【视觉Transformer】交流群 想看更多CVPR 2021论文和开源项目可以点击: CVPR2021-Papers-with-Code SegFormer SegFormer: Simple and Ef屠榜各大CV任务!Swin Transformer : 层次化视觉Transformer
目标检测刷到58.7 AP(目前第一)! 实例分割刷到51.1 Mask AP(目前第一)! 语义分割在ADE20K上刷到53.5 mIoU(目前第一)! 性能优于DeiT、ViT和EfficientNet等主干网络,代码即将开源! 注1:文末附【Transformer】交流群 注2:整理不易,欢迎点赞,支持分享! 想看更多CVPR 2021论文和开源项目可以点击:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
目标检测刷到58.7 AP(目前第一)! 实例分割刷到51.1 Mask AP(目前第一)! 语义分割在ADE20K上刷到53.5 mIoU(目前第一)! 性能优于DeiT、ViT和EfficientNet等主干网络,代码即将开源! 注1:文末附【Transformer】交流群 注2:整理不易,欢迎点赞,支持分享! 想看更多CVPR 2021论文和开源项目可以点击:港中文&商汤提出SMCA:用于DETR快速收敛的空间调制协同注意力
为了加速DETR收敛,本文提出了一种简单而有效的方案来改进DETR框架,即空间调制协同注意(SMCA)机制。即插即用,让DETR涨点明显。性能优于可变形DETR、DETR等网络。 注1:文末附【Transformer】和【目标检测】交流群 注2:整理不易,点赞的人暴富,论文多多! SMCA Fast Convergence of DETR wiFast Convergence of DETR with Spatially Modulated Co-Attention
为了加速DETR收敛,本文提出了一种简单而有效的方案来改进DETR框架,即空间调制协同注意(SMCA)机制。即插即用,让DETR涨点明显。性能优于可变形DETR、DETR等网络。 注1:文末附【Transformer】和【目标检测】交流群 注2:整理不易,点赞的人暴富,论文多多! SMCA Fast Convergence of DETR wi