批量归一化 - Tensorflow

4

我看了一些BN的例子,但还是有点困惑。所以我现在使用这个函数来调用这个函数;

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/g3doc/api_docs/python/functions_and_classes/shard4/tf.contrib.layers.batch_norm.md

from tensorflow.contrib.layers.python.layers import batch_norm as batch_norm
import tensorflow as tf

def bn(x,is_training,name):
    bn_train = batch_norm(x, decay=0.9, center=True, scale=True,
    updates_collections=None,
    is_training=True,
    reuse=None, 
    trainable=True,
    scope=name)
    bn_inference = batch_norm(x, decay=1.00, center=True, scale=True,
    updates_collections=None,
    is_training=False,
    reuse=True, 
    trainable=False,
    scope=name)
    z = tf.cond(is_training, lambda: bn_train, lambda: bn_inference)
    return z

这部分是一个玩具测试,我只是检查函数是否重用了训练步骤中计算的两个特征的均值和方差。在测试模式下运行代码,即is_training=False,可以看到训练步骤中计算的运行均值/方差正在发生变化,当我们打印从调用bnParams得到的BN变量时可以看到。
if __name__ == "__main__":
    print("Example")

    import os
    import numpy as np
    import scipy.stats as stats
    np.set_printoptions(suppress=True,linewidth=200,precision=3)
    np.random.seed(1006)
    import pdb
    path = "batchNorm/"
    if not os.path.exists(path):
        os.mkdir(path)
    savePath = path + "bn.model"

    nFeats = 2
    X = tf.placeholder(tf.float32,[None,nFeats])
    is_training = tf.placeholder(tf.bool,name="is_training")
    Y = bn(X,is_training=is_training,name="bn")
    mvn = stats.multivariate_normal([0,100])
    bs = 4
    load = 0
    train = 1
    saver = tf.train.Saver()
    def bnCheck(batch,mu,std):
        # Checking calculation
        return (x - mu)/(std + 0.001)
    with tf.Session() as sess:
        if load == 1:
            saver.restore(sess,savePath)
        else:
            tf.global_variables_initializer().run()
        #### TRAINING #####
        if train == 1:
            for i in xrange(100):
                x = mvn.rvs(bs)
                y = Y.eval(feed_dict={X:x, is_training.name: True})

        def bnParams():
            beta, gamma, mean, var = [v.eval() for v in tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES,scope="bn")]
            return beta, gamma, mean, var

        beta, gamma, mean, var = bnParams()
        #### TESTING #####
        for i in xrange(10):
            x = mvn.rvs(1).reshape(1,-1)
            check = bnCheck(x,mean,np.sqrt(var))
            y = Y.eval(feed_dict={X:x, is_training.name: False})
            print("x = {0}, y = {1}, check = {2}".format(x,y,check))
            beta, gamma, mean, var = bnParams()
            print("BN Params: Beta {0} Gamma {1} mean {2} var{3} \n".format(beta,gamma,mean,var))

        saver.save(sess,savePath)

测试循环的前三次迭代如下:
x = [[  -1.782  100.941]], y = [[-1.843  1.388]], check = [[-1.842  1.387]]
BN Params: Beta [ 0.  0.] Gamma [ 1.  1.] mean [ -0.2   99.93] var[ 0.818  0.589] 

x = [[  -1.245  101.126]], y = [[-1.156  1.557]], check = [[-1.155  1.557]]
BN Params: Beta [ 0.  0.] Gamma [ 1.  1.] mean [  -0.304  100.05 ] var[ 0.736  0.53 ] 

x = [[ -0.107  99.349]], y = [[ 0.23  -0.961]], check = [[ 0.23 -0.96]]
BN Params: Beta [ 0.  0.] Gamma [ 1.  1.] mean [ -0.285  99.98 ] var[ 0.662  0.477] 

我没有进行BP,因此beta和gamma不会改变。然而,我的运行均值/方差正在发生变化。我做错了什么吗?
编辑: 了解这些变量在测试和训练之间需要/不需要更改的原因将是有益的。
updates_collections, reuse, trainable
2个回答

3
您的bn函数有误。请改用以下代码:
def bn(x,is_training,name):
    return batch_norm(x, decay=0.9, center=True, scale=True,
    updates_collections=None,
    is_training=is_training,
    reuse=None,
    trainable=True,
    scope=name)

is_training是一个布尔类型的0-D张量,用于指示是否更新运行平均值等。通过更改张量is_training,您可以表示您处于训练阶段还是测试阶段。

编辑: TensorFlow中的许多操作接受张量,而不是常数True / False数字参数。


那个和我发布的那个有什么区别? - mattdns
你的代码对于计算图来说产生了不必要的节点。老实说,我还没有测试过你的代码,但是我看到很多不好的风格(例如导入应该在文件开头,而不是缩进在if_main下面等等)。 - nmiculinic
说实话,我不确定... 表面上看起来很好。但正如我所说,每5行代码就会有一些奇怪的程序员选择(例如在其他地方使用0/1代替is_training,然后在非PEP8规范的位置导入等)。这些事情使得代码更难阅读和理解。为什么你要使用is_training.name而不是is_training呢? - nmiculinic
你怎么确定你写的是正确的变量?你从来没有检查它们的名称,而 get_collection I image 具有抽象集合,这不是有序的。 - nmiculinic
我并不是在寻求一堂关于优美编程的课程,我只是想要一些有关批量归一化的有用建议。无论如何,还是谢谢。 - mattdns

0
当您使用 slim.batch_norm 时,请确保使用 slim.learning.create_train_op 而不是 tf.train.GradientDecentOptimizer(lr).minimize(loss) 或其他优化器。尝试一下,看看是否有效!


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接