Wie normalisiert das Protokoll (p (x, y)) die punktuelle gegenseitige Information?


9

Ich versuche, die normalisierte Form der punktuellen gegenseitigen Information zu verstehen.

npmi=pmi(x,y)log(p(x,y))

Warum normalisiert die logarithmische Gelenkwahrscheinlichkeit die punktweise gegenseitige Information auf [-1, 1]?

Die punktuelle gegenseitige Information ist:

pmi=log(p(x,y)p(x)p(y))

p (x, y) ist durch [0, 1] begrenzt, so dass log (p (x, y)) durch (, 0] begrenzt ist. Es scheint, als sollte das log (p (x, y)) Änderungen in irgendwie ausgleichen der Zähler, aber ich verstehe nicht genau wie. Es erinnert mich auch an die Entropie , aber auch hier verstehe ich die genaue Beziehung nicht.h=log(p(x))


Für den Anfang verwenden punktweise gegenseitige Informationen den Logarithmus (ich bin nicht sicher, ob es sich um einen Tippfehler handelt oder ob Sie eine andere Größe verwenden ).
Piotr Migdal

Antworten:


12

Aus dem Wikipedia-Eintrag zur punktuellen gegenseitigen Information :

Punktweise gegenseitige Informationen können zwischen [-1, + 1] normalisiert werden, was zu -1 (im Grenzwert) für niemals zusammen auftretend, 0 für Unabhängigkeit und +1 für vollständiges gleichzeitiges Auftreten führt.

Warum passiert das? Nun, die Definition für punktuelle gegenseitige Information ist

pmilog[p(x,y)p(x)p(y)]=logp(x,y)logp(x)logp(y),

Für normalisierte punktweise gegenseitige Informationen gilt Folgendes :

npmipmilogp(x,y)=log[p(x)p(y)]logp(x,y)1.

Das wenn es gibt:

  • Keine gleichzeitigen Vorkommen, , also ist nmpi -1,logp(x,y)
  • zufälliges gleichzeitiges Auftreten, , also ist nmpi 0,logp(x,y)=log[p(x)p(y)]
  • vollständige Co-Vorkommen, , also ist nmpi 1.logp(x,y)=logp(x)=logp(y)

Es wäre eine vollständigere Antwort, um zu zeigen, warum sich npmi im Intervall . Siehe meinen Beweis in der anderen Antwort. [1,1]
Hans

1

Während Piotr Migdals Antwort in den Beispielen, in denen nmpi drei Extremwerte erreicht, informativ ist, beweist sie nicht, dass es sich um das Intervall . Hier ist die Ungleichung und ihre Ableitung. as für jedes Ereignis . wir beide Seiten durch das nicht negative , erhalten wir [1,1]

logp(x,y)logp(x,y))logp(x)logp(y)=logp(x,y)p(x)p(y)=:pmi(x;y)=logp(y|x)+logp(y|x)logp(x,y)logp(x,y)
logp(A)0Ah(x,y):=logp(x,y)
1nmpi(x;y):=mpi(x;y)h(x,y)1.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.