Das Papier über GANs besagt, dass der Diskriminator den folgenden Gradienten zum Trainieren verwendet:
Die Werte werden abgetastet, durch den Generator geleitet, um Datenabtastwerte zu erzeugen, und dann wird der Diskriminator unter Verwendung der erzeugten Datenabtastwerte rückpropogiert. Sobald der Generator die Daten erzeugt, spielt er keine weitere Rolle beim Training des Diskriminators. Mit anderen Worten, der Generator kann vollständig aus der Metrik entfernt werden, indem Datenproben generiert werden und dann nur mit den Proben gearbeitet wird.
Ich bin etwas verwirrter darüber, wie der Generator trainiert ist. Es wird der folgende Farbverlauf verwendet:
In diesem Fall ist der Diskriminator Teil der Metrik. Es kann nicht wie im vorherigen Fall entfernt werden. Dinge wie kleinste Quadrate oder logarithmische Wahrscheinlichkeit in regulären Unterscheidungsmodellen können leicht unterschieden werden, da sie eine schöne, eng geformte Definition haben. Ich bin jedoch etwas verwirrt darüber, wie Sie zurückpropogieren, wenn die Metrik von einem anderen neuronalen Netzwerk abhängt. Verbinden Sie im Wesentlichen die Ausgänge des Generators mit den Eingängen des Diskriminators und behandeln Sie dann das Ganze wie ein riesiges Netzwerk, in dem die Gewichte im Diskriminatorteil konstant sind?
D_loss
eingehenG_loss
? Maximierung über welchen Raum? IIUC,D_real
undD_fake
sind jeweils eine Charge, also maximieren wir über die Charge?