7得票2回答
TensorFlow版本2中的量化感知训练及批归一化折叠

我想知道在Tensorflow 2中,在量化感知训练期间模拟BatchNorm折叠的当前可用选项是什么。Tensorflow 1有tf.contrib.quantize.create_training_graph函数,它将FakeQuantization层插入到图形中,并负责模拟批归一化折叠(...

8得票1回答
批量归一化和使用SELU的自归一化神经网络之间的区别

我想了解批归一化和自归一化神经网络之间的区别。换句话说,SELU(缩放指数线性单元)是否可以替代批归一化,并如何实现? 此外,当我查看SELU激活值时,它们在[-1, 1]范围内。而批归一化并非如此,相反,在BN层之后(relu激活之前),它们的值大约为[-a,a],而不是[-1,1]。 ...

9得票1回答
Batchnorm2d Pytorch - 为什么要将通道数传递给批量归一化?

为什么我需要在批量归一化中传递先前的通道数量? 批量归一化应该在批次中对每个数据点进行归一化,为什么它需要具有通道数呢?

7得票1回答
在TensorFlow 2.0中,批量归一化没有梯度?

我正在尝试制作一个简单的GANs来从MNIST数据集中生成数字。但是当我到达训练阶段(这是自定义的)时,我收到了这个令人讨厌的警告,我怀疑它是导致训练不像我习惯的那样的原因。 请记住,所有这些都在tensorflow 2.0中,并使用默认的急切执行。 获取数据(不是太重要) (train...

12得票2回答
如何在PyTorch中进行完全连接的批量归一化?

torch.nn有BatchNorm1d、BatchNorm2d和BatchNorm3d类,但它没有全连接的批量归一化类?在PyTorch中进行正常的批量归一化的标准方法是什么?

15得票2回答
在caffe中如何使用“BatchNorm”层?

我对如何在我的模型中使用/插入"BatchNorm"层有点困惑。 我看到了几种不同的方法,例如: ResNets: "BatchNorm"+"Scale" (无参数共享) "BatchNorm"层紧随其后的是"Scale"层: layer { bottom: "res2a_bran...

12得票1回答
BatchNorm动量约定PyTorch

批标准化动量约定(默认值为0.1)是否正确,例如在其他库(如Tensorflow)中,通常默认为0.9或0.99?或者我们只是使用了不同的约定?

83得票4回答
实例归一化 vs 批量归一化

我理解批量标准化通过将激活转向单位高斯分布来帮助更快地训练,从而解决消失梯度问题。在训练时,批量标准化以不同的方式应用(使用每个批次的平均值/方差),而在测试时则使用已确定的运行平均值/方差。 另一方面,实例标准化作为对比标准化,如本文https://arxiv.org/abs/1607.0...

8得票1回答
当测试时(is_training=False),Tensorflow的batch_norm无法正常工作。

我将训练以下模型: with slim.arg_scope(inception_arg_scope(is_training=True)): logits_v, endpoints_v = inception_v3(all_v, num_classes=25, is_training=...

21得票1回答
tf.layers.batch_normalization 大规模测试误差

我尝试使用批量归一化,我在一个简单的MNIST卷积神经网络上尝试使用tf.layers.batch_normalization。训练步骤中获得了高的准确率(>98%),但测试准确率非常低(我的代码# Input placeholders x = tf.placeholder(tf.float3...