Wie berechnet man gegenseitige Informationen?


10

Ich bin etwas verwirrt. Kann mir jemand erklären, wie man die gegenseitige Information zwischen zwei Begriffen basierend auf einer Term-Dokument-Matrix mit dem Auftreten eines binären Terms als Gewichtung berechnet?

WhyHowWhenWhereDocument11111Document21010Document31110

I(X;Y)=yYxXp(x,y)log(p(x,y)p(x)p(y))

Vielen Dank


Was sind und ? XY
Dilip Sarwate

X und Y sind Begriffe. X könnte "Warum" und Y könnte "Wie" sein.
user18075

Antworten:


7

Wie wäre es mit einer gemeinsamen Wahrscheinlichkeitstabelle, die die normalisierten Co-Vorkommen in Dokumenten enthält? Dann können Sie anhand der Tabelle gemeinsame Entropie und marginale Entropien erhalten. Schließlich ist

I(X,Y)=H(X)+H(Y)H(X,Y).

1
Wenn die Gelenk- und Randverteilung bestimmt wurde, warum ist es notwendig, , und zu berechnen und die von Ihnen angegebene Formel zu verwenden? Kann die gegenseitige Information nicht direkt über die vom OP angegebene Formel bestimmt werden, da alles, was zum "Einstecken" benötigt wird, nämlich. und sind an dieser Stelle bekannt? H(X)H(Y)H(X,Y)p(x,y),p(x)p(y)
Dilip Sarwate

2
Formeln sind äquivalent, außer dass letztere auf den ersten Blick besser interpretierbar sind.
Zoran
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.