Ich habe ein gutes Verständnis für neuronale Netze, Rückausbreitung und Kettenregeln, aber ich habe Schwierigkeiten, die automatische Differenzierung zu verstehen.
Das Folgende bezieht sich auf die automatische Differenzierung außerhalb des Kontextes der Rückausbreitung:
- Wie berechnet die automatische Differenzierung den Gradienten aus einer Matrix?
- Was sind die Voraussetzungen, um einen Gradienten zu berechnen? Muss eine Funktion angegeben werden?
- Was sind einige Anwendungsfälle dafür (andere als Back Propagation)?
- Warum ist es wichtig und welche Alternativen gibt es?
Vermisse ich etwas
tf.gradient
Methode, die ich betrachten sollte?