BN层的作用
作者:互联网
BN层的作用:
Batch normalization 也可以被看做一个层面. 在一层层的添加神经网络的时候, 我们先有数据 X, 再添加全连接层, 全连接层的计算结果会经过 激励函数 成为下一层的输入, 接着重复之前的操作. Batch Normalization (BN) 就被添加在每一个全连接和激励函数之间.
将输入的数据进行一个范围的调整,避免在激活函数上免疫。 让每一层的值在有效的范围内传递下去因为BN的本质是解决了激活函数饱和的问题
BN原理与算法
我们引入一些 batch normalization 的公式. 这三步就是我们在刚刚一直说的 normalization 工序, 就是类似于概率分布的标准化。
但是公式的后面还有一个反向操作, 将 normalize 后的数据再扩展和平移. 原来这是为了让神经网络自己去学着使用和修改这个扩展参数 gamma, 和 平移参数 β, 这样神经网络就能自己慢慢琢磨出前面的 normalization 操作到底有没有起到优化的作用, 如果没有起到作用, 我就使用 gamma 和 belt 来抵消一些 normalization 的操作.
Xavier(发音[‘zeɪvɪr])初始化与其他初始化方法总结
链接:https://blog.csdn.net/qq_27825451/article/details/88707423?utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7Edefault-2.no_search_link&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7Edefault-2.no_search_link
标签:BN,distribute,blog,神经网络,添加,作用,normalization 来源: https://blog.csdn.net/xjw0645/article/details/120839328