Wie berechnet man gegenseitige Informationen?

10

Ich bin etwas verwirrt. Kann mir jemand erklären, wie man die gegenseitige Information zwischen zwei Begriffen basierend auf einer Term-Dokument-Matrix mit dem Auftreten eines binären Terms als Gewichtung berechnet?

WhyHowWhenWhereDocument11111Document21010Document31110

I(X;Y)=yYxXp(x,y)log(p(x,y)p(x)p(y))

Vielen Dank

user18075
quelle
Was sind und ? XY
Dilip Sarwate
X und Y sind Begriffe. X könnte "Warum" und Y könnte "Wie" sein.
user18075

Antworten:

7

Wie wäre es mit einer gemeinsamen Wahrscheinlichkeitstabelle, die die normalisierten Co-Vorkommen in Dokumenten enthält? Dann können Sie anhand der Tabelle gemeinsame Entropie und marginale Entropien erhalten. Schließlich ist

I(X,Y)=H(X)+H(Y)H(X,Y).
Zoran
quelle
1
Wenn die Gelenk- und Randverteilung bestimmt wurde, warum ist es notwendig, , und zu berechnen und die von Ihnen angegebene Formel zu verwenden? Kann die gegenseitige Information nicht direkt über die vom OP angegebene Formel bestimmt werden, da alles, was zum "Einstecken" benötigt wird, nämlich. und sind an dieser Stelle bekannt? H(X)H(Y)H(X,Y)p(x,y),p(x)p(y)
Dilip Sarwate
2
Formeln sind äquivalent, außer dass letztere auf den ersten Blick besser interpretierbar sind.
Zoran