这些交叉熵损失的区别是什么?
Keras提到了:
- 二元交叉熵 - 分类交叉熵 - 稀疏分类交叉熵
而TensorFlow则有:
- 带logits的softmax交叉熵 - 带logits的稀疏softmax交叉熵 - 带logits的sigmoid交叉熵
它们之间有什么不同和关系?它们的典型应用是什么?数学背景是什么?还有其他需要了解的交叉熵类型吗?是否存在不带logits的交叉熵类型?
Keras提到了:
- 二元交叉熵 - 分类交叉熵 - 稀疏分类交叉熵
而TensorFlow则有:
- 带logits的softmax交叉熵 - 带logits的稀疏softmax交叉熵 - 带logits的sigmoid交叉熵
它们之间有什么不同和关系?它们的典型应用是什么?数学背景是什么?还有其他需要了解的交叉熵类型吗?是否存在不带logits的交叉熵类型?