Die gegenseitige Information einschränken, die gegeben ist, beschränkt sich auf die punktweise gegenseitige Information


17

Angenommen, ich habe zwei Mengen und und eine gemeinsame Wahrscheinlichkeitsverteilung über diese Mengen . Lassen und die Randverteilungen über bezeichnen und jeweils.XYp(x,y)p(x)p(y)XY

Die gegenseitige Information zwischen und ist definiert als: XY

I(X;Y)=x,yp(x,y)log(p(x,y)p(x)p(y))

dh es ist der Durchschnittswert der punktweisen gegenseitigen Information pmi .(x,y)log(p(x,y)p(x)p(y))

Angenommen, ich kenne die oberen und unteren Grenzen von pmi : dh ich weiß, dass für alle Folgendes gilt: (x,y)x,y

klog(p(x,y)p(x)p(y))k

Was obere Schranke tut dies impliziert auf . Natürlich impliziert dies , aber ich möchte eine engere Bindung, wenn möglich. Dies erscheint mir plausibel, da p eine Wahrscheinlichkeitsverteilung definiert und pmi nicht für jeden Wert von und seinen Maximalwert annehmen kann (oder sogar nicht negativ sein kann) .I ( X ; Y ) k ( x , y ) x yI(X;Y)I(X;Y)k(x,y)xy


1
Wenn die gemeinsamen und Randwahrscheinlichkeiten einheitlich sind, ist pmi ( , y ) einheitlich null (und daher nicht negativ, was Ihrer letzten Aussage anscheinend widerspricht, aber gerade noch). Es scheint mir, wenn ich mich nicht irre, dass die Störung dieser Situation bei kleinen Teilmengen von X × Y darauf hindeutet, dass die Grenzen von pmi fast nichts über I ( X ; Y ) selbst aussagen . xyX×YI(X;Y)
whuber

1
In der Tat, wenn und Y sind unabhängig, dann p m i ( x , y ) konstant ist , unabhängig von den Randverteilungen. So gibt es eine ganze Klasse von Verteilungen p ( x , y ) , für die p m i ( x , y ) seinen Maximalwert für jede erhält x und y . XYpmi(x,y)p(x,y)pmi(x,y)xy
Kardinal

Ja, es ist sicher richtig, dass pmi für alle x und y gleich sein kann , aber das schließt eine engere Grenze nicht aus. Zum Beispiel ist es nicht schwer zu beweisen, dass I ( X ; Y ) k ( e k - 1 ) ist . Dies ist wenn , und ist eine nicht triviale Verstärkung der Schranke wenn . Ich frage mich, ob es nicht-triviale Grenzen gibt, die allgemeiner gelten. (x,y)xyI(X;Y)k(ek1) k < 1 k k < 1k2k<1kk<1
Florian

1
Ich bin mir nicht sicher, ob Sie für k 0 eine bessere Grenze als . Wenn Sie genauer hinschauen möchten, versuchen Sie, Ihre Frage in Bezug auf die KL-Divergenz zwischen p (x) p (y) und p (x, y) neu zu formulieren. Pinskers Ungleichung liefert eine Untergrenze für den MI, die meine Vermutung bestätigen könnte. Siehe auch Abschnitt 4 von ajmaa.org/RGMIA/papers/v2n4/relog.pdf . O(k2)k0
vqv

Antworten:


4

Mein Beitrag besteht aus einem Beispiel. Es zeigt einige Grenzen auf, wie die gegenseitige Information begrenzt werden kann, wenn Grenzen für die punktweise gegenseitige Information gegeben sind.

Nehmen und p ( x ) = 1 / N für alle x X . Für jeden m { 1 , ... , n / 2 } lassen k > 0 ist die Lösung der Gleichung m e k + ( n - m ) e - k = n .X=Y={1,,n}p(x)=1/nxXm{1,,n/2}k>0

mek+(nm)ek=n.
Dann platzieren wir die Punktmasse in n m Punkten im Produktraum { 1 , , n } 2 so, dass es m dieser Punkte in jeder Zeile und jeder Spalte gibt. (Dies kann auf verschiedene Arten geschehen. Beginnen Sie beispielsweise mit den ersten m Punkten in der ersten Reihe und füllen Sie die verbleibenden Reihen aus, indem Sie die m Punkte mit einer zyklischen Randbedingung für jede Reihe um eins nach rechts verschieben.) Wir setzen die Punktmasse e - k / n 2 in das verbleibende nek/n2nm{1,,n}2mmmek/n2 Punkte. Die Summe dieser Punktmassen ist n mn2nm also geben sie ein Wahrscheinlichkeitsmaß. Alle Randpunktwahrscheinlichkeiten sind m
nmn2ek+n2nmn2ek=mek+(nm)ekn=1,
also sind beide Randverteilungen gleichmäßig.
mn2ek+mnn2ek=1n,

Durch den Aufbau ist es klar , daß für alle x , y { 1 , ... , n } , und (nach einigen Berechnungen) I ( X ; Y ) = k n mpmi(x,y){k,k},x,y{1,,n} mit der gegenseitigen Information verhaltenalsk2/2fürk0und alskfürk.

I(X;Y)=knmn2ekkn2nmn2ek=k(1ekekek(ek+ek)ek),
k2/2k0kk


1

Ich bin mir nicht sicher, ob Sie danach suchen, da es größtenteils algebraisch ist und die Eigenschaften von p als Wahrscheinlichkeitsverteilung nicht wirklich nutzt, aber hier ist etwas, das Sie ausprobieren können.

Aufgrund der Grenzen von pmi ist eindeutigp(x,y)p(x)p(y)ekp(x,y)p(x)p(y)ekp(x,y)ich(X;Y.)ich(X;Y.)x,yp(x)p(y)eklÖG(p(x)p(y)ekp(x)p(y))=x,yp(x)p(y)ekk

Ich bin mir nicht sicher, ob das hilfreich ist oder nicht.

EDIT: Nach weiterer Überprüfung glaube ich, dass dies weniger nützlich ist als die ursprüngliche Obergrenze von k. Ich werde dies jedoch nicht löschen, falls es auf einen Startpunkt hindeuten sollte.


x,yp(x)p(y)=1k0ek1

Ja, als ich merkte, dass ich meine Bearbeitung vorgenommen habe.
Michael McGowan
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.