python-在标准CNN上应用批量归一化的位置
作者:互联网
我有以下架构:
Conv1
Relu1
Pooling1
Conv2
Relu2
Pooling3
FullyConnect1
FullyConnect2
我的问题是,我应该在哪里应用批处理规范化?在TensorFlow中执行此操作的最佳功能是什么?
解决方法:
原始的batch-norm paper规定在ReLU激活之前使用批处理规范.但是有证据表明,激活后使用batchnorm可能更好.这是Francois Chollet对Keras GitHub的评论:
… I can guarantee that recent code written by Christian [Szegedy]
applies relu
before BN. It is still occasionally a topic of debate, though.
第二个问题:在tensorflow中,您可以使用高级tf.layers.batch_normalization
函数或低级tf.nn.batch_normalization
.
标签:tensorflow,machine-learning,conv-neural-network,batch-normalization,python 来源: https://codeday.me/bug/20191110/2015183.html