我正在将一个keras模型移植到torch
中,但在softmax层后复制keras/tensorflow的'categorical_crossentropy'
的确切行为时遇到了问题。我已经有一些解决此问题的方法,所以我只想了解tensorflow计算分类交叉熵时确切地是如何进行计算的。
作为玩具问题,我设置了标签和预测向量。
>>> import tensorflow as tf
>>> from tensorflow.keras import backend as K
>>> import numpy as np
>>> true = np.array([[0.0, 1.0], [1.0, 0.0]])
>>> pred = np.array([[0.0, 1.0], [0.0, 1.0]])
使用以下方法计算分类交叉熵:
>>> loss = tf.keras.losses.CategoricalCrossentropy()
>>> print(loss(pred, true).eval(session=K.get_session()))
8.05904769897461
这与分析结果不同。
>>> loss_analytical = -1*K.sum(true*K.log(pred))/pred.shape[0]
>>> print(loss_analytical.eval(session=K.get_session()))
nan
我研究了keras/tf的交叉熵源代码(参见Tensorflow Github源代码中的Softmax Cross Entropy实现),并在https://github.com/tensorflow/tensorflow/blob/c903b4607821a03c36c17b0befa2535c7dd0e066/tensorflow/compiler/tf2xla/kernels/softmax_op.cc的第116行找到了C函数。在那个函数中,有一个注释:
// sum(-labels *
// ((logits - max_logits) - log(sum(exp(logits - max_logits)))))
// along classes
// (The subtraction broadcasts along the batch dimension.)
实施这一点后,我尝试了:
>>> max_logits = K.max(pred, axis=0)
>>> max_logits = max_logits
>>> xent = K.sum(-true * ((pred - max_logits) - K.log(K.sum(K.exp(pred - max_logits)))))/pred.shape[0]
>>> print(xent.eval(session=K.get_session()))
1.3862943611198906
我也尝试打印
xent.eval(session=K.get_session())
的跟踪,但跟踪内容有大约95000行。 因此,问题是:计算'categorical_crossentropy'
时Keras/TensorFlow究竟在做什么?它不返回nan
是有道理的,否则会导致训练问题,但是这个8是从哪里来的呢?