其他分享
首页 > 其他分享> > 归一化:Layer Normalization、Batch Normalization

归一化:Layer Normalization、Batch Normalization

作者:互联网

归一化的核心思想是把一组数据转化为均值为 0,方差为 1 的数据,使得训练数
据在训练过程中尽可能的保持和测试数据拥有相同的分布。

标签:Layer,训练,梯度,Batch,归一化,数据,Normalization
来源: https://blog.csdn.net/u013250861/article/details/123073361