Als «loss-functions» getaggte Fragen

3
Grundlegendes zur GAN-Verlustfunktion
Ich kämpfe darum, die GAN-Verlustfunktion zu verstehen, wie sie in " Grundlegendes zu generativen kontradiktorischen Netzwerken" (einem Blogbeitrag von Daniel Seita) beschrieben wird. Beim Standard-Cross-Entropy-Loss haben wir eine Ausgabe, die eine Sigmoid-Funktion und eine resultierende binäre Klassifikation durchlaufen hat. Sieta Staaten Somit erhalten wir für [jeden] Datenpunkt und seine Beschriftung …

1
Der Verlust springt abrupt, wenn ich die Lernrate mit dem Adam-Optimierer in PyTorch reduziere
Ich trainiere ein auto-encoderNetzwerk mit AdamOptimierer (mit amsgrad=True) und MSE lossfür die Aufgabe der Einkanal-Audioquellentrennung. Immer wenn ich die Lernrate um einen Faktor verringere, springt der Netzwerkverlust abrupt und nimmt dann bis zum nächsten Abfall der Lernrate ab. Ich verwende Pytorch für die Netzwerkimplementierung und Schulung. Following are my experimental …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.