其他分享
首页 > 其他分享> > refinenet

refinenet

作者:互联网

文章目录

Refinenet的实现细节!

  1. 主干网络: resnet101

在这里插入图片描述

kernel size = 1的卷积核调整通道大小,减少参数量和计算量

kernel size = 3调整尺寸大小

refinenet取用了conv2_x(尺寸为原来 1 4 \frac{1}{4} 41​​​​), conv3_x(尺寸为原来 1 8 \frac{1}{8} 81​​​​), conv4_x(尺寸为原来 1 16 \frac{1}{16} 161​​​​), conv5_x(尺寸为原来 1 32 \frac{1}{32} 321​​​​)

  1. up_sampling采用的是双线性插值法

  2. 损失函数是BCE + MSE, BCE是针对分类,MSE是每个像素点的值

  3. 分类问题输出层激活函数损失函数
    二分类(只有0和1两个类别)sigmoidBCE
    多分类(只输出一个标签,且类别是互斥关系)softmaxCCE
    多标签分类(输出多标签,类别之间可能互斥可能依赖可能包含)sigmoidBCE
  4. RCU作用是对预训练的Resnet权重进行微调

  5. MRF将所有路径的输入通过这个模块融合到高分辨率特征图上

  6. CRP针对大的图像区域捕获其上下文背景信息

  7. 多阶段的池化和卷积通常会使最终的图像预测降低32倍,从而丢失很多更精细的图像信息,有哪些解决方法以及这些方法弊端?(反卷积和空洞卷积效果不好)

    答:利用中间层的特征生成高分辨率的预测结果

  8. 如何有效利用中间层特性

    1. 一种多路径的提炼网络,利用多级抽象特征进行高分辨率的语义分割
    2. 梯度可以通过短距离和长距离的残差连接传播,从而实现端到端训练
    3. 提出链式残差池化,能够从大的图像区域提取背景上下文

标签:frac,卷积,32,分类,尺寸,图像,refinenet
来源: https://blog.csdn.net/weixin_33423187/article/details/120534482