Jensen-Shannon-Divergenz für bivariate Normalverteilungen


8

Angesichts zweier bivariater Normalverteilungen und versuche ich, die Jensen-Shannon-Divergenz zwischen ihnen zu berechnen. definiert (für den diskreten Fall) als: wobei KLD die Kullback-Leibler-Divergenz ist , und M = \ frac {1} {2} (P + Q) Ich habe den Weg gefunden, KLD anhand der Verteilungsparameter und damit JSD zu berechnen . PN(μp,Σp)QN(μq,Σq)JSD(PQ)=12(KLD(PM)+KLD(QM))M = 1KLDKLDJSD.M=12(P+Q)
KLDJSD

Meine Zweifel sind:

  1. Um M zu berechnen M, habe ich gerade MN(12(μp+μq),12(Σp+Σq)) . Ist das richtig?

  2. Ich habe in [ 1 ] gelesen, dass die JSD begrenzt ist, aber das scheint nicht zu stimmen, wenn ich sie wie oben für Normalverteilungen beschrieben berechne. Bedeutet das, dass ich es falsch berechne, eine Annahme verletze oder etwas anderes, das ich nicht verstehe?

Antworten:


8

Das Mittelpunktmaß ist eine Mischungsverteilung der beiden multivariaten Normalen, hat also nicht die von Ihnen angegebene Form im ursprünglichen Beitrag. Sei die Wahrscheinlichkeitsdichtefunktion eines Zufallsvektors und das PDF von . Dann ist das PDF des Mittelpunktmaßes MN ( μ p , Σ p ) φ q ( x ) N ( μ q , Σ q ) φ m ( x ) = 1φp(x)N(μp,Σp)φq(x)N(μq,Σq)

φm(x)=12φp(x)+12φq(x).

Die Jensen-Shannon-Divergenz ist wobei die (Differential-) Entropie bezeichnet, die dem Maß .h ( P ) P.

JSD=12(KL(PM)+KL(QM))=h(M)12(h(P)+h(Q)),
h(P)P

Daher reduziert sich Ihre Berechnung auf die Berechnung der Differentialentropien. Für das multivariate Normal lautet die Antwort bekanntermaßen und der Beweis kann in einer beliebigen Anzahl von Quellen gefunden werden, z. B. Cover und Thomas (1991), S. 230-231. Es ist darauf hinzuweisen, dass die Entropie einer multivariaten Normalen in Bezug auf den Mittelwert unveränderlich ist, wie der obige Ausdruck zeigt. Dies überträgt sich jedoch fast sicher nicht auf den Fall einer Mischung von Normalen. (Denken Sie daran, eine breite Normalen zu wählen, die bei Null zentriert ist, und eine andere konzentrierte Normalen, bei denen letztere weit vom Ursprung entfernt ist.)1N(μ,Σ)

12log2((2πe)n|Σ|)

Für den Mittelpunkt scheinen die Dinge komplizierter zu sein. Ich weiß, dass es keinen Ausdruck in geschlossener Form für die Differentialentropie . Die Suche bei Google führt zu einigen potenziellen Treffern, aber die Top-Treffer scheinen im allgemeinen Fall keine geschlossenen Formulare zu ergeben. Möglicherweise können Sie diese Menge in irgendeiner Weise nicht annähern.h(M)

Beachten Sie auch, dass das Papier, auf das Sie verweisen, die Behandlung nicht nur auf diskrete Verteilungen beschränkt. Sie behandeln einen Fall allgemein genug, dass Ihr Problem in ihren Rahmen fällt. Siehe die Mitte der zweiten Spalte auf Seite 1859. Hier wird auch gezeigt, dass die Divergenz begrenzt ist. Dies gilt für den Fall von zwei allgemeinen Maßnahmen und ist nicht auf den Fall von zwei diskreten Verteilungen beschränkt.

Die Jensen-Shannon-Divergenz ist in letzter Zeit einige Male in anderen Fragen auf dieser Website aufgetaucht. Sehen Sie hier und hier .


Nachtrag : Beachten Sie, dass eine Mischung von Normalen nicht mit einer linearen Kombination von Normalen identisch ist. Der einfachste Weg, dies zu sehen, besteht darin, den eindimensionalen Fall zu betrachten. Sei und und sei unabhängig voneinander. Dann hat eine Mischung der beiden Normalen unter Verwendung von Gewichten für die Verteilung X 2N ( μ , 1 ) ( α , 1 - α ) α ( 0 , 1 ) m ( x ) = α 1X1N(μ,1)X2N(μ,1)(α,1α)α(0,1)

φm(x)=α12πe(x+μ)22+(1α)12πe(xμ)22.

Die Verteilung einer linearen Kombination von und Verwendung der gleichen Gewichte wie zuvor ist über die stabile Eigenschaft der Normalverteilung wobei .X 2 φ ( x ) = 1X1X2σ 2 = α 2 + ( 1 - α ) 2

φ(x)=12πσ2e(x(12α)μ)22σ2,
σ2=α2+(1α)2

Diese beiden Verteilungen sind sehr unterschiedlich, obwohl sie den gleichen Mittelwert haben. Dies ist kein Zufall und ergibt sich aus der Linearität der Erwartung.

Stellen Sie sich vor, Sie müssten sich an eine statistische Beraterin wenden, um die Mischungsverteilung zu verstehen, damit sie für Sie Werte aus dieser Verteilung erstellen kann. Sie hat eine Realisierung von in einer Handfläche und eine Realisierung von in der anderen Handfläche (obwohl Sie nicht wissen, in welcher der beiden Palmen sich jeweils befindet). Jetzt wirft ihre Assistentin eine voreingenommene Münze mit der Wahrscheinlichkeit außer Sichtweite von Ihnen und kommt dann und flüstert dem Statistiker das Ergebnis ins Ohr. Sie öffnet eine ihrer Handflächen und zeigt Ihnen die Erkenntnis, sagt Ihnen aber nicht das Ergebnis des Münzwurfs. Dieser Prozess erzeugt die Mischungsverteilung.X 2 αX1X2α

Andererseits kann die lineare Kombination im gleichen Kontext verstanden werden. Der statistische Berater nimmt lediglich beide Realisierungen, multipliziert die erste mit und die zweite mit , addiert das Ergebnis und zeigt es Ihnen.( 1 - α )α(1α)


Danke für deine Antwort. Mein Problem liegt also in (wie ich berechnet habe) der Mittelpunktverteilung. Bitte entschuldigen Sie meine Unwissenheit, wenn ich eine offensichtliche Frage stelle, aber wie unterscheidet sich die Mittelpunktverteilung von der Summe normalverteilter Zufallsvariablen ? Liegt es daran, dass wir uns in einem Bi-Variate-Fall befinden?
Jorges

2
@jorges Die Summe ist normal und daher symmetrisch zu einem einzelnen Modus. Wenn die beiden Mittel ausreichend weit voneinander entfernt sind (im Vergleich zu ihren SDs), ist die Mischungsverteilung bimodal . In keinem Fall ist die Mischung normal, außer in den entarteten Fällen (gleiche Mittelwerte und gleiche SDs). Dies geht auch aus der Formel für : Dieser Durchschnitt der Exponentiale kann nicht als Exponential einer quadratischen Form geschrieben werden. φm
whuber

@whuber und Kardinal: Während ich intuitiv verstehe, was Sie sagen, habe ich anscheinend ein ernstes Problem mit Konzepten. Ich bin nicht wirklich ein Statistiker, und ich denke, ich mische "Summe der Zufallsvariablen" mit "Mischungsverteilung". Ich bestreite nicht wirklich, was Kardinal und Sie geantwortet haben, sondern versuche, den Unterschied zu verstehen und wann ich welche verwenden soll, da ich an anderer Stelle ähnliche Fehler machen könnte. Ich gehe zurück, um etwas zu lesen und zu sehen, ob ich mich aufklären kann. Danke für deine Antworten.
Jorges

2

Kardinals Antwort ist richtig. Sie versuchen, eine geschlossene Lösung für die Jensen-Shannon-Divergenz zweier Gaußscher zu finden. Es gibt keine solche Lösung.

Sie können Jensen-Shannon jedoch mit Monte-Carlo-Stichproben mit beliebiger Genauigkeit berechnen. Was Sie benötigen, ist eine Möglichkeit zur Berechnung der und im weiteren Sinne der . Die Kullback-Leibler-Divergenz ist definiert als:K L D ( Q | M )KLD(P|M)KLD(Q|M)

KLD(P|M)=P(x)log(P(x)M(x))dx

Die Monte-Carlo-Näherung hierfür lautet:

KLDapprox(P|M)=1ninlog(P(xi)M(xi))

wo die aus abgetastet wurden , was einfach ist, da es in Ihrem Fall ein Gaußscher ist. Als ist . kann berechnet werden als . P ( x ) n xiP(x)nM ( x i ) , M ( x i ) = 1KLDapprox(P|M)KLD(P|M)M(xi)M(xi)=12P(xi)+12Q(xi)


HI @FrankD - Ich habe versucht, Ihren Vorschlag hier umzusetzen : stats.stackexchange.com/questions/345915/… obwohl ich nicht denke, dass es genau das ist, was Sie gemeint haben. Zeiger sind herzlich willkommen.
Astrid
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.