refinenet
作者:互联网
文章目录
Refinenet的实现细节!
- 主干网络: resnet101
kernel size = 1的卷积核调整通道大小,减少参数量和计算量
kernel size = 3调整尺寸大小
refinenet取用了conv2_x(尺寸为原来 1 4 \frac{1}{4} 41), conv3_x(尺寸为原来 1 8 \frac{1}{8} 81), conv4_x(尺寸为原来 1 16 \frac{1}{16} 161), conv5_x(尺寸为原来 1 32 \frac{1}{32} 321)
-
up_sampling采用的是双线性插值法
-
损失函数是BCE + MSE, BCE是针对分类,MSE是每个像素点的值
-
分类问题 输出层激活函数 损失函数 二分类(只有0和1两个类别) sigmoid BCE 多分类(只输出一个标签,且类别是互斥关系) softmax CCE 多标签分类(输出多标签,类别之间可能互斥可能依赖可能包含) sigmoid BCE -
RCU作用是对预训练的Resnet权重进行微调
-
MRF将所有路径的输入通过这个模块融合到高分辨率特征图上
-
CRP针对大的图像区域捕获其上下文背景信息
-
多阶段的池化和卷积通常会使最终的图像预测降低32倍,从而丢失很多更精细的图像信息,有哪些解决方法以及这些方法弊端?(反卷积和空洞卷积效果不好)
答:利用中间层的特征生成高分辨率的预测结果
-
如何有效利用中间层特性
- 一种多路径的提炼网络,利用多级抽象特征进行高分辨率的语义分割
- 梯度可以通过短距离和长距离的残差连接传播,从而实现端到端训练
- 提出链式残差池化,能够从大的图像区域提取背景上下文
标签:frac,卷积,32,分类,尺寸,图像,refinenet 来源: https://blog.csdn.net/weixin_33423187/article/details/120534482