我最近发现了tf.nn.sparse_softmax_cross_entropy_with_logits,但是与tf.nn.softmax_cross_entropy_with_logits相比有什么区别我无法弄清楚。
使用
阅读API时,我无法找到与
如果提供了独热编码的训练数据/向量,
使用
sparse_softmax_cross_entropy_with_logits
时,唯一的区别是训练向量y
必须进行独热编码吗?阅读API时,我无法找到与
softmax_cross_entropy_with_logits
相比的任何其他差异。那为什么我们需要额外的功能呢?如果提供了独热编码的训练数据/向量,
softmax_cross_entropy_with_logits
难道不应该产生与sparse_softmax_cross_entropy_with_logits
相同的结果吗?