我已阅读两个函数的文档,但据我所知,对于函数
然而,对于函数
您能否给出一个更详细的
tf.nn.softmax_cross_entropy_with_logits(logits, labels, dim=-1, name=None)
,结果是交叉熵损失,其中logits
和labels
的维度相同。然而,对于函数
tf.nn.sparse_softmax_cross_entropy_with_logits
,logits
和labels
的维度不同?您能否给出一个更详细的
tf.nn.sparse_softmax_cross_entropy_with_logits
示例?
softmax_cross_entropy_with_logits
的上述描述不再准确:“...其中类别是相互排斥的(每个条目仅属于一个类别)...” https://www.tensorflow.org/api_docs/python/tf/nn/softmax_cross_entropy_with_logits - user2725109