29得票2回答
TensorFlow稀疏分类交叉熵是如何工作的?

我正在尝试理解TensorFlow中的损失函数,但我不懂它是什么意思。它叫做SparseCategoricalCrossentropy。所有其他的损失函数都需要相同形状的输出和标签,但这个特定的损失函数不需要。 源代码:import tensorflow as tf; scce = tf....

25得票2回答
我的交叉熵函数实现有什么问题?

我正在学习神经网络,希望能够在Python中编写一个名为cross_entropy的函数。 它的定义如下: 其中N是样本数量,k是类别数量,log表示自然对数,t_i,j为1表示样本i属于类别j,为0表示不属于,p_i,j为预测样本i属于类别j的概率。 为了避免对数运算中出现数值问题,...

21得票1回答
PyTorch中的LogSoftmax和Softmax在交叉熵损失函数中有何不同?

我了解PyTorch中的LogSoftmax函数基本上只是一种更稳定的计算Log(Softmax(x))的方法。Softmax可以将来自Linear层的输出转换为分类概率分布。 PyTorch文档称CrossEntropyLoss将nn.LogSoftmax()和nn.NLLLoss()结合在...

21得票4回答
PyTorch中softmax_cross_entropy_with_logits的等效实现

我想知道是否有一个等效的PyTorch损失函数可以替代TensorFlow的softmax_cross_entropy_with_logits?

15得票1回答
关于tf.nn.softmax_cross_entropy_with_logits_v2

我注意到tf.nn.softmax_cross_entropy_with_logits_v2(labels, logits)主要执行三个操作: 对logits(y_hat)应用softmax以进行归一化:y_hat_softmax = softmax(y_hat)。 计算交叉熵损失:y_c...

14得票3回答
如何在tensorflow中使用sparse_softmax_cross_entropy_with_logits实现加权交叉熵损失?

我开始使用TensorFlow(从Caffe过来),并且正在使用损失函数。该函数接受标签,如0,1,...C-1,而不是onehot编码。现在,我想根据类别标签使用加权;如果我使用(one hot编码),则知道可以使用矩阵乘法来完成此操作。是否有任何方法可以在中实现相同的功能?

14得票4回答
为什么不能在分类问题中使用均方误差?

我正在尝试使用LSTM解决一个简单的二进制分类问题。我试图找出正确的网络损失函数。问题在于,当我使用二元交叉熵作为损失函数时,相对于使用均方误差(MSE)函数,训练和测试的损失值较高。 经过研究,我发现二元交叉熵应用于分类问题,而MSE适用于回归问题。然而,在我的情况下,我使用MSE进行二元...

14得票3回答
损失增加的可能解释?

我有一个包含来自四个不同国家的各种主题的图片数据集,包括户外场景、城市景观、菜单等。我想用深度学习给每张图片打上地理标签。 我从一个由3个conv->relu->pool层组成的小型神经网络开始,然后添加了3个以上的层以加深网络,因为学习任务并不直接。 我的损失函数如下图 (使用3层和6层...

14得票2回答
Pytorch:交叉熵损失中的权重

我试图通过一个实际的例子来理解CrossEntropyLoss中权重(weight)的作用。所以我首先运行了标准的PyTorch代码,然后手动计算了这两种情况的损失(loss),但是它们的值并不相同。from torch import nn import torch softmax=nn.So...

13得票1回答
Tensorflow,在Tensorflow的sparse_categorical_crossentropy中,from_logits = True或False是什么意思?

在Tensorflow 2.0中,有一个称为{{loss function}}的损失函数。 tf.keras.losses.sparse_categorical_crossentropy(labels, targets, from_logits = False) 我能问一下,设置from...