交叉熵损失和逻辑回归损失有什么区别?

3
我想在我的深度学习模型中使用逻辑回归损失函数来解决二分类问题。我正在使用keras构建模型,然而keras没有预定义的逻辑损失函数
在阅读有关损失函数的内容时,我看到了一些关于交叉熵损失和逻辑损失的混淆陈述。在这篇维基百科文章中,为逻辑损失和交叉熵损失设置了单独的部分。
但是,在这篇维基百科文章中提到:
引用:

逻辑损失有时被称为交叉熵损失。

此外,这个sklearn页面开头写着:
引用:

对数损失,又称作逻辑损失或交叉熵损失。

任何帮助将不胜感激。

1
这个问题可能更适合 https://datascience.stackexchange.com/。 - Eulenfuchswiesel
1个回答

1
在keras中,对于有两个类别的分类问题,请使用binary_crossentropy。 对于超过2个类别,请使用categorical_crossentropy
这两种损失函数本质上是相同的。如果使用tensorflow作为keras的后端,则会使用下面提到的函数来评估二进制交叉熵。
tf.nn.sigmoid_cross_entropy_with_logits(labels=target,
                                                   logits=output)

在下面这个函数的文档中提到:
为了简洁起见,令x=logits,z=labels。逻辑回归损失函数是:
z * -log(sigmoid(x)) + (1 - z) * -log(1 - sigmoid(x))

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接