Ich bin kürzlich auf tf.nn.sparse_softmax_cross_entropy_with_logits gestoßen und kann nicht herausfinden, was der Unterschied zu tf.nn.softmax_cross_entropy_with_logits ist .
Der einzige Unterschied ist, dass Trainingsvektoren y
sein one-hot kodierten bei der Verwendung sparse_softmax_cross_entropy_with_logits
?
Beim Lesen der API konnte ich keinen anderen Unterschied feststellen als softmax_cross_entropy_with_logits
. Aber warum brauchen wir dann die zusätzliche Funktion?
Sollte nicht softmax_cross_entropy_with_logits
die gleichen Ergebnisse liefern wie sparse_softmax_cross_entropy_with_logits
wenn es mit One-Hot-codierten Trainingsdaten / -vektoren geliefert wird?