Ich kenne Shannons Arbeit mit Entropie, aber in letzter Zeit habe ich an prägnanten Datenstrukturen gearbeitet, in denen empirische Entropie häufig als Teil der Speicheranalyse verwendet wird.
Shannon definierte die Entropie der von einer diskreten Informationsquelle erzeugten Information als , wobei p i die Wahrscheinlichkeit des Auftretens des Ereignisses i ist, z. B. eines bestimmten erzeugten Zeichens, und es gibt k mögliche Ereignisse.
Wie von MCH in den Kommentaren ausgeführt, ist die empirische Entropie die Entropie der empirischen Verteilung dieser Ereignisse und ist somit gegeben durch wobeinidie Anzahl der beobachteten Ereignisseiundndie Gesamtzahl der beobachteten Ereignisse ist. Dies wird alsempirische Entropie nullter Ordnung bezeichnet. Shannons Begriff derbedingten Entropiehat eine ähnlicheempirische Versionhöherer Ordnung.
Shannon hat den Begriff empirische Entropie nicht verwendet, obwohl er sicherlich einen Teil der Anerkennung für dieses Konzept verdient. Wer hat diese Idee zuerst verwendet und wer hat zuerst den (sehr logischen) Namen empirische Entropie verwendet , um sie zu beschreiben?
quelle
Antworten:
Ich interessiere mich für "empirische Entropie" wie Sie und das früheste Papier, das ich finde, war das von Kosaraju, wie der Benutzer "Marzio De Biasi" in seinem Kommentar sagte.
Aber meiner Meinung nach werden die wirklichen Definitionen der "empirischen Entropie" später durch Verallgemeinerung der früheren Konzepte vorgenommen:
wobei ein Markov-Prozess ter Ordnung ist. Er zeigte auch, dass diese Definition der vorherigen entspricht. Der nächste Schritt von Vitányi war eine Verallgemeinerung auf beliebige Prozessklassen (nicht nur Markov-Prozesse):Q k
Dabei ist die Klasse der zulässigen Prozesse und die Kolmogorov-Komplexität. Wenn wir als Klasse der Markov-Prozesse ter Ordnung wählen , wird eine Folge vonZufallsvariablen und das Ignorieren der Kolmogorov-Komplexität führt dann auch zur Definition von Gagie (multipliziert mit ).X K(X)
X k |w| |w|
quelle