211得票8回答
在Keras中,我应该在哪里调用BatchNormalization函数?

如果我想在Keras中使用BatchNormalization函数,那么我只需要在开始时调用它一次吗? 我阅读了这个文档:http://keras.io/layers/normalization/ 我不知道应该在哪里调用它。以下是我的代码尝试使用它:model = Sequential()...

90得票4回答
卷积神经网络中的批量归一化

我是卷积神经网络的新手,只知道特征图和卷积在图像上提取特征的想法。我希望了解有关在CNN中应用批归一化的详细信息。 我阅读了这篇论文https://arxiv.org/pdf/1502.03167v3.pdf,并且能够理解BN算法应用于数据,但最后他们提到在应用到CNN时需要进行轻微修改: ...

83得票4回答
实例归一化 vs 批量归一化

我理解批量标准化通过将激活转向单位高斯分布来帮助更快地训练,从而解决消失梯度问题。在训练时,批量标准化以不同的方式应用(使用每个批次的平均值/方差),而在测试时则使用已确定的运行平均值/方差。 另一方面,实例标准化作为对比标准化,如本文https://arxiv.org/abs/1607.0...

42得票2回答
批量归一化代替输入归一化

我能否在输入层后立即使用批量归一化层而不对我的数据进行归一化? 我是否可以期望获得类似的效果/性能? 在Keras functional中,它可能是这样的:x = Input (...) x = Batchnorm(...)(x) ...

33得票2回答
BatchNormalization层关联参数数量为2048的原因是什么?

我有以下代码。x = keras.layers.Input(batch_shape = (None, 4096)) hidden = keras.layers.Dense(512, activation = 'relu')(x) hidden = keras.layers.BatchNorma...

23得票2回答
Tensorflow中正确的批量归一化函数是什么?

在TensorFlow 1.4中,我发现了两个看起来一样的批量归一化函数: tf.layers.batch_normalization (链接) tf.contrib.layers.batch_norm (链接) 我应该使用哪个函数?哪一个更加稳定?

21得票1回答
tf.layers.batch_normalization 大规模测试误差

我尝试使用批量归一化,我在一个简单的MNIST卷积神经网络上尝试使用tf.layers.batch_normalization。训练步骤中获得了高的准确率(>98%),但测试准确率非常低(我的代码# Input placeholders x = tf.placeholder(tf.float3...

17得票1回答
使用TensorFlow进行3D卷积的批归一化

我正在实现一个依赖于3D卷积的模型(用于类似于动作识别的任务),并想使用批量归一化(请参阅[Ioffe & Szegedy 2015])。我找不到任何关于3D卷积的重点教程,因此我在这里制作了一个短片段,希望与您一起审查。 下面的代码涉及TensorFlow r0.12,并明确实例化变量 -...

17得票3回答
在标准CNN上应用批量归一化的位置在哪里?

我有以下架构:Conv1 Relu1 Pooling1 Conv2 Relu2 Pooling3 FullyConnect1 FullyConnect2 我的问题是,在哪里应用批量归一化?在TensorFlow中,最好使用什么函数实现?

15得票3回答
tf.layers.batch_normalization中"trainable"和"training"标志的意义

在tf.layers.batch_normalization中,“trainable”和“training”标志的重要性是什么?在训练和预测期间这两者有何不同?