首页 > TAG信息列表 > batch-normalization
python-在标准CNN上应用批量归一化的位置
我有以下架构: Conv1 Relu1 Pooling1 Conv2 Relu2 Pooling3 FullyConnect1 FullyConnect2 我的问题是,我应该在哪里应用批处理规范化?在TensorFlow中执行此操作的最佳功能是什么?解决方法:原始的batch-norm paper规定在ReLU激活之前使用批处理规范.但是有证据表明,激活后使用batchnopython – 我在哪里调用Keras中的BatchNormalization函数?
如果我想在Keras中使用BatchNormalization函数,那么我是否只需要在开头调用它一次? 我为它阅读了这个文档:http://keras.io/layers/normalization/ 我不知道我应该把它称之为什么.以下是我的代码试图使用它: model = Sequential() keras.layers.normalization.BatchNormalization(epspython – Tensorflow中的正确批量规范化功能是什么?
在tensorflow 1.4中,我找到了两个执行批量规范化的函数,它们看起来相同: > tf.layers.batch_normalization(link) > tf.contrib.layers.batch_norm(link) 我应该使用哪种功能?哪一个更稳定?解决方法:只是要添加到列表中,还有几种方法可以在tensorflow中进行批处理规范: > tf.nn.batch_n