其他分享
首页 > 其他分享> > 深度学习四种不同归一化方式对比

深度学习四种不同归一化方式对比

作者:互联网

深度学习中数据的维度⼀般是【N, H, W, C】格式,其中 N 是batch size,H、W是特征图的⾼和宽,C是特征图的通道数。如下图所⽰,
是 BN、LN、IN 与 GN 作⽤⽅式的对⽐图。

 

下⾯分别来解释这四种不同的归⼀化⽅式:

组归⼀化的优点:组归⼀化将通道分成组,并在每组内计算归⼀化的均值和⽅差。组归⼀化的计算与批量⼤⼩⽆关,所以其准确度在各种批量⼤⼩都很稳定。

 

10、BN 和 WN ⽐较

WN(Weight Normalization)是权重归⼀化,它与BN都属于参数重写的⽅法,只是采⽤的⽅式不同。WN 是对⽹络权值 W进⾏归⼀化, BN 是对⽹络某⼀层输⼊数据进⾏归⼀化。

WN 相⽐ BN 的优势在于:

11、归⼀化和标准化的联系与区别

标签:RNN,WN,BN,归一化,Batch,四种,深度,组归,Normalization
来源: https://www.cnblogs.com/end/p/16394450.html