Wie normalisiert das Protokoll (p (x, y)) die punktuelle gegenseitige Information?

9

Ich versuche, die normalisierte Form der punktuellen gegenseitigen Information zu verstehen.

npmi=pmi(x,y)log(p(x,y))

Warum normalisiert die logarithmische Gelenkwahrscheinlichkeit die punktweise gegenseitige Information auf [-1, 1]?

Die punktuelle gegenseitige Information ist:

pmi=log(p(x,y)p(x)p(y))

p (x, y) ist durch [0, 1] begrenzt, so dass log (p (x, y)) durch (, 0] begrenzt ist. Es scheint, als sollte das log (p (x, y)) Änderungen in irgendwie ausgleichen der Zähler, aber ich verstehe nicht genau wie. Es erinnert mich auch an die Entropie , aber auch hier verstehe ich die genaue Beziehung nicht.h=log(p(x))

2 Cent
quelle
Für den Anfang verwenden punktweise gegenseitige Informationen den Logarithmus (ich bin nicht sicher, ob es sich um einen Tippfehler handelt oder ob Sie eine andere Größe verwenden ).
Piotr Migdal

Antworten:

12

Aus dem Wikipedia-Eintrag zur punktuellen gegenseitigen Information :

Punktweise gegenseitige Informationen können zwischen [-1, + 1] normalisiert werden, was zu -1 (im Grenzwert) für niemals zusammen auftretend, 0 für Unabhängigkeit und +1 für vollständiges gleichzeitiges Auftreten führt.

Warum passiert das? Nun, die Definition für punktuelle gegenseitige Information ist

pmilog[p(x,y)p(x)p(y)]=logp(x,y)logp(x)logp(y),

Für normalisierte punktweise gegenseitige Informationen gilt Folgendes :

npmipmilogp(x,y)=log[p(x)p(y)]logp(x,y)1.

Das wenn es gibt:

  • Keine gleichzeitigen Vorkommen, , also ist nmpi -1,logp(x,y)
  • zufälliges gleichzeitiges Auftreten, , also ist nmpi 0,logp(x,y)=log[p(x)p(y)]
  • vollständige Co-Vorkommen, , also ist nmpi 1.logp(x,y)=logp(x)=logp(y)
Piotr Migdal
quelle
Es wäre eine vollständigere Antwort, um zu zeigen, warum sich npmi im Intervall . Siehe meinen Beweis in der anderen Antwort. [1,1]
Hans
1

Während Piotr Migdals Antwort in den Beispielen, in denen nmpi drei Extremwerte erreicht, informativ ist, beweist sie nicht, dass es sich um das Intervall . Hier ist die Ungleichung und ihre Ableitung. as für jedes Ereignis . wir beide Seiten durch das nicht negative , erhalten wir [1,1]

logp(x,y)logp(x,y))logp(x)logp(y)=logp(x,y)p(x)p(y)=:pmi(x;y)=logp(y|x)+logp(y|x)logp(x,y)logp(x,y)
logp(A)0Ah(x,y):=logp(x,y)
1nmpi(x;y):=mpi(x;y)h(x,y)1.

Hans
quelle