我正在调试我的程序,发现输出了 NaN。这些 NaN 值来自于计算 tf.log(1 + tf.exp(X))
。
其中 X 是一个二维张量。当 X 的值足够大时,tf.exp() 的返回值会为 +Inf,因此 tf.log(1 + exp(X))
将返回 +Inf
。我在想是否存在一个巧妙的方法来避免在这种情况下出现下溢和上溢。
我已经尝试过:
def log1exp(x):
maxi = tf.reduce_max(x)
return maxi + tf.log(tf.exp(x - maxi) + tf.exp(-maxi))
但在这种情况下,它不能处理下溢...
此外,我看了一眼tf.reduce_logsumexp
,但它必须沿着一个轴减少张量...而我想保持相同的形状!
最后,我知道tf.log(1 + exp(X))
对于大的X值几乎等于X
,但我认为设计一个函数,当X > 阈值
时输出X
,否则输出log(1+exp(X))不是很简洁。
谢谢
tf.nn.softplus
不会处理溢出,可以通过传递大输入来轻松验证。 - sk29910with tf.Session() as sess:
- DachuanZhaotf.math.softplus(tf.math.exp(10.0*10)).eval()
- DachuanZhaoInf
。 - DachuanZhaoexp(10.0*10)
超出了float32
的范围。 - P-Gn