Ich persönlich bevorzuge den Monte-Carlo-Ansatz wegen seiner Leichtigkeit. Es gibt Alternativen (z. B. die nicht parfümierte Transformation), aber diese sind sicherlich voreingenommen.
Lassen Sie mich Ihr Problem ein wenig formalisieren. Sie verwenden ein neuronales Netzwerk, um eine bedingte Wahrscheinlichkeitsverteilung über die Ausgänge zu implementieren, die Eingänge angeben , wobei die Gewichte in gesammelt werden :yxθ
pθ(y ∣ x).
Lassen Sie uns nicht darauf achten, wie Sie die Gewichte wahrscheinlich eine Art Backprop - und behandeln Sie dies einfach als eine Black Box, die uns übergeben wurde.θ
Als zusätzliche Eigenschaft Ihres Problems nehmen Sie an, dass Sie nur Zugriff auf eine "verrauschte Version" der tatsächlichen Eingabe , wobei
mit nach einer gewissen Verteilung, zB Gauß. Beachten Sie, dass Sie dann schreiben können,
wobeiWas Sie dann wollen, ist die Verteilung
dh die Verteilung über die Ausgänge angesichts des verrauschten Eingangs und eines Modells sauberer Eingänge zu Ausgängen.x~xx~=x+ϵ
ϵp(x~∣x)=N(x~|x,σ2ϵ)
ϵ∼N(0,σ2ϵ).p(y∣x~)=∫p(y∣x)p(x∣x~)dx,
Wenn Sie nun invertieren können , um (was Sie im Fall einer Gaußschen Zufallsvariablen und anderer können), können Sie die approximieren oben mit einfacher Monte-Carlo-Integration durch Stichproben:p(x~∣x)p(x∣x~)
p(y∣x~)≈∑ip(y∣xi),xi∼p(x∣x~).
Beachten Sie, dass dies auch verwendet werden kann, um alle anderen Arten von Erwartungen an Funktionen von zu berechnen :fy
f(x~)≈∑if(yi),xi∼p(x∣x~),yi∼p(y∣xi).
Ohne weitere Annahmen gibt es nur voreingenommene Näherungen.