126得票3回答
"tf.sparse_softmax_cross_entropy_with_logits和tf.softmax_cross_entropy_with_logits的区别是什么?"

我最近发现了tf.nn.sparse_softmax_cross_entropy_with_logits,但是与tf.nn.softmax_cross_entropy_with_logits相比有什么区别我无法弄清楚。 使用sparse_softmax_cross_entropy_with_...

7得票2回答
Keras应用不同的权重来处理不同的错分类。

我正在尝试实现一个包含三个类别('A'、'B'和'C')的分类问题,我想在模型损失函数中加入不同类型错误分类的惩罚(类似于加权交叉熵)。由于类别权重适用于属于该类别的所有数据,因此不适用。例如,将真实标签'B'误分类为'C'应具有比误分类为'A'更高的损失。权重表如下: A B C...

29得票2回答
TensorFlow稀疏分类交叉熵是如何工作的?

我正在尝试理解TensorFlow中的损失函数,但我不懂它是什么意思。它叫做SparseCategoricalCrossentropy。所有其他的损失函数都需要相同形状的输出和标签,但这个特定的损失函数不需要。 源代码:import tensorflow as tf; scce = tf....

10得票4回答
如何在Keras中进行逐点分类交叉熵损失?

我有一个网络,可以生成4D输出张量,其中空间维度(~像素)中每个位置的值被解释为该位置的类概率。换句话说,输出为(num_batches,height,width,num_classes)。我有相同大小的标签,其中真实类别编码为one-hot编码。我想使用此计算损失。 问题1:K.softm...

101得票3回答
如何在TensorFlow中选择交叉熵损失函数?

分类问题,例如逻辑回归或多项式逻辑回归,优化 交叉熵 损失。通常,交叉熵层跟随 softmax 层,产生概率分布。 在tensorflow中,至少有十几种不同的 交叉熵损失函数: tf.losses.softmax_cross_entropy tf.losses.sparse_softm...

8得票2回答
如何在Theano上实现加权二元交叉熵?

如何在Theano上实现加权二元交叉熵?我的卷积神经网络只能预测0~1(sigmoid)。我想以这种方式惩罚我的预测: 基本上,我希望在模型预测为0但实际为1时进行更多的惩罚。 问题:如何使用Theano和Lasagne创建加权二元交叉熵函数? 我尝试了下面这个: predicti...

66得票3回答
在哪些情况下,交叉熵优于均方误差?

尽管以上两种方法都提供了更好的预测接近度得分,但交叉熵仍然更受欢迎。在每种情况下都是如此吗?还是有一些奇特的场景,我们更喜欢交叉熵而不是均方误差(MSE)?

25得票2回答
我的交叉熵函数实现有什么问题?

我正在学习神经网络,希望能够在Python中编写一个名为cross_entropy的函数。 它的定义如下: 其中N是样本数量,k是类别数量,log表示自然对数,t_i,j为1表示样本i属于类别j,为0表示不属于,p_i,j为预测样本i属于类别j的概率。 为了避免对数运算中出现数值问题,...

42得票1回答
交叉熵和对数损失误差有什么区别?

交叉熵和对数损失错误有什么区别?两者的公式似乎非常相似。

13得票1回答
Tensorflow,在Tensorflow的sparse_categorical_crossentropy中,from_logits = True或False是什么意思?

在Tensorflow 2.0中,有一个称为{{loss function}}的损失函数。 tf.keras.losses.sparse_categorical_crossentropy(labels, targets, from_logits = False) 我能问一下,设置from...