Ich habe einige Zeit mit der gegenseitigen Information gearbeitet. Aber ich habe in der "Korrelationswelt" ein sehr neues Maß gefunden, das auch zur Messung der Verteilungsunabhängigkeit verwendet werden kann, die sogenannte "Distanzkorrelation" (auch Brownsche Korrelation genannt): http://en.wikipedia.org/wiki/Brownian_covariance . Ich habe die Papiere überprüft, in denen diese Maßnahme eingeführt wurde, ohne jedoch einen Hinweis auf die gegenseitige Information zu finden.
Meine Fragen lauten also:
- Lösen sie genau das gleiche Problem? Wenn nicht, wie unterscheiden sich die Probleme?
- Und wenn die vorherige Frage positiv beantwortet werden kann, welche Vorteile hat die Verwendung des einen oder anderen?
Antworten:
Information / gegenseitige Information hängt nicht von den möglichen Werten ab, sie hängt nur von den Wahrscheinlichkeiten ab, daher ist sie weniger empfindlich. Die Entfernungskorrelation ist leistungsfähiger und einfacher zu berechnen. Zum Vergleich siehe
http://www-stat.stanford.edu/~tibs/reshef/comment.pdf
quelle