Diese Frage gibt eine quantitative Definition der Kreuzentropie in Bezug auf ihre Formel.
Ich suche nach einer eher fiktiven Definition, sagt Wikipedia:
In der Informationstheorie misst die Kreuzentropie zwischen zwei Wahrscheinlichkeitsverteilungen die durchschnittliche Anzahl von Bits, die zum Identifizieren eines Ereignisses aus einer Menge von Möglichkeiten erforderlich sind, wenn ein Codierungsschema auf der Grundlage einer gegebenen Wahrscheinlichkeitsverteilung q anstelle der "wahren" Verteilung p verwendet wird .
Ich habe den Teil betont, der mir Schwierigkeiten bereitet, dies zu verstehen. Ich hätte gerne eine nette Definition, die kein separates (bereits vorhandenes) Verständnis von Entropy erfordert.
entropy
information-theory
Lyndon White
quelle
quelle
Antworten:
Wenn wir es dann optimal codieren möchten, codieren wir A als 0 und B als 1, sodass wir ein Bit der codierten Nachricht pro Buchstabe erhalten. (Und es ist genau die Shannon-Entropie unserer Wahrscheinlichkeitsverteilung.)
quelle