Ich suche nach Methoden, mit denen sich die Informationsentropie einer Verteilung abschätzen lässt, wenn die einzigen praktischen Methoden zur Stichprobe aus dieser Verteilung Monte-Carlo-Methoden sind.
Mein Problem ist dem Standard-Ising-Modell nicht unähnlich, das normalerweise als Einführungsbeispiel für die Metropolis-Hastings-Stichprobe verwendet wird. Ich habe eine Wahrscheinlichkeitsverteilung über eine Gruppe , dh ich habe p ( a ) für jedes a ∈ A . Die Elemente a ∈ A sind kombinatorischer Natur, wie Ising-Zustände, und es gibt eine sehr hohe Anzahl von ihnen. Dies bedeutet, dass ich in der Praxis nie zweimal dieselbe Stichprobe erhalte, wenn ich von dieser Distribution auf einem Computer eine Stichprobe nehme. p ( a ) kann nicht direkt berechnet werden (da der Normalisierungsfaktor nicht bekannt ist), sondern das Verhältnis p ( a ist leicht zu berechnen.
Ich möchte die Informationsentropie dieser Verteilung schätzen,
Alternativ möchte ich die Entropiedifferenz zwischen dieser Verteilung und einer Verteilung schätzen, die durch Beschränken auf eine Teilmenge (und natürlich durch erneutes Normalisieren) erhalten wird.