Im Einzelnen wundere ich mich wohl über diese Aussage:
Zukünftige Hauptversionen von TensorFlow ermöglichen es, dass Farbverläufe standardmäßig in die Beschriftungen fließen, die auf Backprop eingegeben werden.
Welches wird angezeigt, wenn ich benutze tf.nn.softmax_cross_entropy_with_logits
. In der gleichen Nachricht fordert es mich auf, einen Blick darauf zu werfen tf.nn.softmax_cross_entropy_with_logits_v2
. Ich habe die Dokumentation durchgesehen, aber es heißt nur, dass für tf.nn.softmax_cross_entropy_with_logits_v2
:
Die Rückübertragung erfolgt sowohl in Logs als auch in Labels. Um die Rückübertragung in Etiketten zu verhindern, führen Sie die Etikettentensoren durch stop_gradients, bevor Sie sie dieser Funktion zuführen.
im Gegensatz zu tf.nn.softmax_cross_entropy_with_logits
's:
Die Rückübertragung erfolgt nur in Logs.
Da das Thema sehr neu ist (ich versuche, mich durch einige grundlegende Tutorials zu arbeiten), sind diese Aussagen nicht sehr klar. Ich habe ein geringes Verständnis von Backpropagation, aber was bedeutet die vorherige Aussage tatsächlich? Wie sind die Backpropagation und die Labels miteinander verbunden? Und wie ändert sich dadurch meine Arbeitsweise tf.nn.softmax_cross_entropy_with_logits_v2
im Gegensatz zum Original?
softmax_..._with_logits_v2
funktionieren wiesoftmax_with_logits
? (Oder ich könnte tf.stop_gradient für die Etikettenvariable verwenden.)