435得票10回答
TensorFlow中的logits是什么意思?

在下面的TensorFlow函数中,我们必须提供最后一层人工神经元的激活。这一点我理解。但是为什么它被称为logits呢?难道它不是一个数学函数吗?loss_function = tf.nn.softmax_cross_entropy_with_logits( logits = la...

126得票3回答
"tf.sparse_softmax_cross_entropy_with_logits和tf.softmax_cross_entropy_with_logits的区别是什么?"

我最近发现了tf.nn.sparse_softmax_cross_entropy_with_logits,但是与tf.nn.softmax_cross_entropy_with_logits相比有什么区别我无法弄清楚。 使用sparse_softmax_cross_entropy_with_...

116得票3回答
交叉熵是什么?

我知道有很多关于交叉熵的解释,但我仍然感到困惑。 它只是描述损失函数的一种方法吗?我们可以使用梯度下降算法利用损失函数来找到最小值吗?

101得票3回答
如何在TensorFlow中选择交叉熵损失函数?

分类问题,例如逻辑回归或多项式逻辑回归,优化 交叉熵 损失。通常,交叉熵层跟随 softmax 层,产生概率分布。 在tensorflow中,至少有十几种不同的 交叉熵损失函数: tf.losses.softmax_cross_entropy tf.losses.sparse_softm...

66得票3回答
在哪些情况下,交叉熵优于均方误差?

尽管以上两种方法都提供了更好的预测接近度得分,但交叉熵仍然更受欢迎。在每种情况下都是如此吗?还是有一些奇特的场景,我们更喜欢交叉熵而不是均方误差(MSE)?

57得票2回答
TensorFlow中使用sigmoid和交叉熵的区别是什么?与sigmoid_cross_entropy_with_logits有何不同?

当尝试使用sigmoid激活函数计算交叉熵时,以下两种方法存在差异: loss1 = -tf.reduce_sum(p*tf.log(q), 1) loss2 = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=p,...

42得票1回答
交叉熵和对数损失误差有什么区别?

交叉熵和对数损失错误有什么区别?两者的公式似乎非常相似。

41得票2回答
Keras和TensorFlow中所有这些交叉熵损失的区别是什么?

这些交叉熵损失的区别是什么? Keras提到了: - 二元交叉熵 - 分类交叉熵 - 稀疏分类交叉熵 而TensorFlow则有: - 带logits的softmax交叉熵 - 带logits的稀疏softmax交叉熵 - 带logits的sigmoid交叉熵 它们之间有什么不同和关...

32得票1回答
自动编码器上的二元交叉熵损失是如何工作的?

我使用仅有的Dense层编写了一个基础的自动编码器。以下是我的代码:iLayer = Input ((784,)) layer1 = Dense(128, activation='relu' ) (iLayer) layer2 = Dense(64, activation='relu') (l...

30得票3回答
Python - 遇到log中的无效数值

我有以下表达式:log = np.sum(np.nan_to_num(-y*np.log(a+ 1e-7)-(1-y)*np.log(1-a+ 1e-7))) 这个表达式会给我以下警告:RuntimeWarning: invalid value encountered in log log...