Gibt es eine Verwendung für die Menge in der Statistik oder Informationstheorie?
probability
entropy
information-theory
charles.y.zheng
quelle
quelle
Antworten:
Mitf eine Wahrscheinlichkeitsdichtefunktion (entweder in Bezug auf die Lebesgue oder das Zählmaß) für die Menge bezeichnet
Renyi stellte dies in seiner Arbeit vor
Das ist nicht nur für die Ideen, sondern auch für den vorbildlichen Ausstellungsstil eine Lektüre wert.
Der Fall ist eine der gebräuchlichsten Entscheidungen für und dieser Sonderfall wird (auch) oft als Renyi-Entropie bezeichnet. Hier sehen wir, dass für eine Zufallsvariable, die mit der Dichte .α H 2 ( f ) = - log ( ∫ f 2 d μ ) = - log ( E f ( X ) ) fα=2 α
Beachten Sie, dass eine konvexe Funktion ist. Aufgrund der Jensen-Ungleichung gilt also wobei die rechte Seite die Shannon-Entropie bezeichnet. Daher liefert die Renyi-Entropie eine Untergrenze für die Shannon-Entropie und ist in vielen Fällen einfacher zu berechnen.H 2 ( f ) = - log ( E f ( X ) ) ≤ E ( - log f ( X ) ) = - E log f ( X ) = H ( f )−log(x)
Ein weiterer natürlicher Fall, in dem die Renyi-Entropie auftritt, ist die Betrachtung einer diskreten Zufallsvariablen und einer unabhängigen Kopie . In einigen Szenarien wollen wir die Wahrscheinlichkeit wissen, dass , was durch eine ElementarberechnungX X⋆ X=X⋆
Hier bezeichnet die Dichte in Bezug auf das Zählmaß auf dem Wertesatz .f Ω={xi:i∈N}
Die (allgemeine) Renyi-Entropie hängt anscheinend auch mit der freien Energie eines Systems im thermischen Gleichgewicht zusammen, obwohl ich persönlich nicht darüber informiert bin. Ein (sehr) aktuelles Papier zu diesem Thema ist
quelle