Ich versuche, die normalisierte Form der punktuellen gegenseitigen Information zu verstehen.
Warum normalisiert die logarithmische Gelenkwahrscheinlichkeit die punktweise gegenseitige Information auf [-1, 1]?
Die punktuelle gegenseitige Information ist:
p (x, y) ist durch [0, 1] begrenzt, so dass log (p (x, y)) durch (, 0] begrenzt ist. Es scheint, als sollte das log (p (x, y)) Änderungen in irgendwie ausgleichen der Zähler, aber ich verstehe nicht genau wie. Es erinnert mich auch an die Entropie , aber auch hier verstehe ich die genaue Beziehung nicht.
Antworten:
Aus dem Wikipedia-Eintrag zur punktuellen gegenseitigen Information :
Warum passiert das? Nun, die Definition für punktuelle gegenseitige Information ist
Für normalisierte punktweise gegenseitige Informationen gilt Folgendes :
Das wenn es gibt:
quelle
Während Piotr Migdals Antwort in den Beispielen, in denen nmpi drei Extremwerte erreicht, informativ ist, beweist sie nicht, dass es sich um das Intervall . Hier ist die Ungleichung und ihre Ableitung. as für jedes Ereignis . wir beide Seiten durch das nicht negative , erhalten wir[ - 1 , 1 ] ≤==≤Logp ( x , y)Logp ( x , y) ) - logp ( x ) - logp ( y)Logp ( x , y)p ( x ) p ( y)= : pmi ( x ; y)Logp ( y| x)+logp ( y|x ) - logp( x , y)- logp (x , y) - logp ( A ) ≥ 0 EIN h ( x , y) : = - logp ( x , y) - - 1 ≤ nmpi ( x ; y) : = mpi (x; y)h ( x , y)≤ 1.
quelle