Ich habe einige Artikel über das manuelle Ausdenken von Bildern gelesen, um ein neuronales Netzwerk zu "täuschen" (siehe unten).
Liegt das daran, dass die Netzwerke nur die bedingte Wahrscheinlichkeit modellieren ?
Wenn ein Netzwerk die gemeinsame Wahrscheinlichkeit p ( y , x ) modellieren kann , treten solche Fälle dann immer noch auf?
Ich vermute, dass solche künstlich erzeugten Bilder sich von den Trainingsdaten unterscheiden und daher eine geringe Wahrscheinlichkeit für . Daher sollte p ( y , x ) niedrig sein, selbst wenn p ( y | x ) für solche Bilder hoch sein kann.
Aktualisieren
Ich habe einige generative Modelle ausprobiert. Es stellte sich heraus, dass sie nicht hilfreich sind. Vermutlich ist dies eine Folge von MLE.
Ich meine, in dem Fall, dass KL-Divergenz als Verlustfunktion verwendet wird, beeinflusst der Wert von bei dem p d a t a ( x ) klein ist, den Verlust nicht. Also für ein konstruiertes Bild , das nicht überein p d a t a , der Wert von p θ kann beliebig sein.
Aktualisieren
Ich habe einen Blog von Andrej Karpathy gefunden, der dies zeigt
Diese Ergebnisse sind nicht spezifisch für Bilder, ConvNets, und sie sind auch kein „Fehler“ beim Deep Learning.
EXPLAINING ANDERER BEISPIELE Deep Neural Networks lassen sich leicht täuschen: Hochzuverlässige Vorhersagen für nicht erkennbare Bilder