Die meisten von uns kennen die Shannon-Entropie einer Zufallsvariablen, , und alle damit zusammenhängenden informationstheoretische Maßnahmen wie relative Entropie, gegenseitige Information und so weiter. Es gibt einige andere Entropiemaßnahmen, die üblicherweise in der theoretischen Informatik und der Informationstheorie verwendet werden, beispielsweise die Min-Entropie einer Zufallsvariablen.
Ich habe angefangen, diese sogenannten Renyi-Entropien häufiger zu sehen, wenn ich in der Literatur stöbere. Sie verallgemeinern die Shannon-Entropie und die Min-Entropie und liefern tatsächlich ein ganzes Spektrum von entropischen Maßen einer Zufallsvariablen. Ich arbeite hauptsächlich im Bereich der Quanteninformation, wo auch die Quantenversion der Renyi-Entropie häufig berücksichtigt wird.
Was ich nicht wirklich verstehe, ist, warum sie nützlich sind. Ich habe gehört, dass es oft einfacher ist, mit ihnen analytisch zu arbeiten, als Shannon / von Neumann-Entropie oder Minientropie zu sagen. Sie können aber auch auf die Shannon-Entropie / Min-Entropie zurückgeführt werden.
Kann jemand (klassische oder quantitative) Beispiele dafür nennen, dass die Verwendung von Renyi-Entropien "das Richtige ist"? Was ich suche, ist ein "mentaler Haken" oder eine "Vorlage", um zu wissen, wann ich Renyi-Entropien verwenden möchte.
Vielen Dank!
quelle
Antworten:
Überlegen Sie, ob Sie atomare Vermutungen für eine unbekannte Zufallsvariable anstellen möchten, die über eine endliche Menge In der Shannon-Entropie wird davon ausgegangen, dass Sie Bit für Bit abfragen können, dh, wenn Sie kann Fragen:A . A = { 1 , … , N }X A. A={1,…,N}
Befindet sich ?X∈{1,…,N/2} (Nehmen Sie gerade an oder verwenden Sie Boden- / Deckenfunktionen)N
In Krypto- und einigen Dekodierungsszenarien ist dies nicht realistisch. Wenn Sie versuchen, ein unbekanntes Kennwort zu erraten, müssen Sie atomare Abfragen durchführen, dh abfragen, ob ein bestimmter Wert ist.X
Es stellt sich heraus, dass die erwartete Anzahl von Abfragen, um eine Zufallsvariable zu erraten, stark von der Renyi-Entropie der Ordnung abhängtAlso mach ein paar höhere Momente. BeispielsweiseX 1/2.
und der Zähler ist im wesentlichen der Logarithmus der Renyi-Entropie der OrdnungMan kann die Shannon-Entropie auch sehr groß machen, während die Renyi-Entropie und die Erwartung der Anzahl von Vermutungen sehr klein ist. Wenn Sie sich aus Sicherheitsgründen auf Shannon-Entropie verlassen würden, wären Sie in diesem Fall in Schwierigkeiten.1/2.
Bitte beachten Sie auch die entsprechende Frage Ermitteln eines niedrigen Entropiewerts bei mehreren Versuchen
Einige Referenzen:
quelle
Die Renyi-Entropie ist in gewissem Sinne analog zu -norms. Erinnern wir uns also zunächst, warum diese Normen nützlich sind.ℓp
Angenommen, wir haben einen Vektor von Zahlen . Wir wollen eine einzige Zahl haben , die in einem gewissen Sinne darstellt, wie funktioniert das typische Element einer aussehen.a∈Rn a
Eine Möglichkeit besteht darin, den Durchschnitt der Zahlen in , der ungefähr der ℓ 1- Norm entspricht: E 1 ≤ i ≤ n [ | a i | ] . Dies ist oft nützlich, hat aber für einige Anwendungen die folgenden Probleme: Erstens gibt uns die ℓ 1- Norm keine gute Obergrenze für das größte Element von a , denn wenn es ein einzelnes großes Element und viele Nullen gibt, das ℓ 1 Norm ist deutlich kleiner als das größte Element. Auf der anderen Seite ist die ℓ 1a ℓ1 E1≤i≤n[|ai|] ℓ1 a ℓ1 ℓ1 Norm gibt uns auch keine gute Grenze dafür, wie klein die Elemente von sind, zum Beispiel wie viele Nullen a hat - dieses Problem tritt in genau demselben Szenario wie zuvor auf.a a
Wenn die Elemente von sehr unterschiedlich sind, wie im obigen Extremszenario, kann natürlich keine einzelne Zahl beide oben genannten Probleme lösen. Wir haben einen Kompromiss. Zum Beispiel, wenn wir das größte Element nur wissen wollen, können wir die Verwendung l ∞ Norm, aber dann werden wir alle Informationen über die kleineren Elemente verlieren. Wenn wir die Anzahl der Nullen wollen, können wir uns die ℓ 0- Norm ansehen , die genau die Größe der Unterstützung von a ist .a ℓ∞ ℓ0 a
Der Grund für die Betrachtung von Normen ist, dass sie uns den gesamten ständigen Kompromiss zwischen den beiden Extremen ermöglichen. Wenn wir mehr Informationen über die großen Elemente wünschen, nehmen wir an, dass p größer ist und umgekehrt.ℓp p
Gleiches gilt für Renyi-Entropien: Shanons Entropie entspricht der Norm - sie sagt etwas über die "typische" Wahrscheinlichkeit eines Elements aus, aber nichts über die Varianz oder die Extreme. Die Minentropie gibt uns Informationen über das Element mit der größten Wahrscheinlichkeit, verliert jedoch alle Informationen über den Rest. Die Stützgröße gibt das andere Extrem an. Die Renyi-Entropien bieten uns einen ständigen Kompromiss zwischen den beiden Extremen.ℓ1
Zum Beispiel ist die Renyi-2-Entropie oft nützlich, weil sie einerseits nahe an der Entropie von Shanon liegt und somit Informationen zu allen Elementen der Verteilung enthält und andererseits mehr Informationen zu den Elementen mit den größten Elementen liefert Wahrscheinlichkeit. Insbesondere ist bekannt, dass Grenzen für die Renyi-2-Entropie Grenzen für die Min-Entropie ergeben, siehe z. B. Anhang A hier: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps
quelle
Die Renyi-Entropie (der Ordnung 2) ist in der Kryptographie zur Analyse der Kollisionswahrscheinlichkeit nützlich.
Man erinnere sich, dass die Renyi-Entropie der Ordnung 2 einer Zufallsvariablen durch gegeben istX
Diese Fakten sind nützlich in der Kryptographie, wo Kollisionen manchmal problematisch sein können und Angriffe ermöglichen.
Für einige Analysen anderer Anwendungen in der Kryptographie empfehle ich folgende Dissertation:
Christian Cachin. Entropiemaßnahmen und bedingungslose Sicherheit in der Kryptographie . Dissertation, ETH Zürich, Mai 1997.
quelle
Diese andere Antwort von stackexchange und dieser Blog-Beitrag könnten sehr hilfreich sein, um ein schnelles Gefühl für ein grundlegendes Beispiel zu bekommen.
/physics/73424/deriving-entanglement-entropy-from-renyi-entropy
https://johncarlosbaez.wordpress.com/2011/02/10/rnyi-entropy-and-free-energy/
Grob gesagt kennen Renyi-Entropien die angeregten Zustände eines Quantensystems, aber die Verschränkungsentropie kennt die Grundzustände. WARNUNG: Diese Intuition könnte furchtbar grob sein, könnte aber auch nur ein guter "mentaler Haken" sein: DI würde sich SEHR freuen, eine bessere und präzise Möglichkeit zu finden, dies zu sagen!
Wenn man versucht, diese anayltischen Fortsetzungen zu machen, gibt es immer eine Menge Probleme mit der Existenz und dem Wohlbefinden - aber für jemanden wie mich, der auf einer täglichen Diät mit Feynman-Pfad-Integralen aufgezogen wird, ist es ein sehr häufiges Problem, mit dem man sich befasst und wir Ich habe eine Menge Werkzeuge, um diese Probleme anzugehen. Drei nützliche Artikel, in denen Sie nach diesen Themen suchen können, sind http://arxiv.org/pdf/1306.5242.pdf , http://arxiv.org/pdf/1402.5396.pdf , http://arxiv.org/pdf/1303.7221 .pdf (der letzte dieser Artikel ist möglicherweise ein einfacher Ausgangspunkt) Diese Präsentation kann auch hilfreich sein: https://www.icts.res.in/media/uploads/Talk/Document/Tadashi_Takayanagi.pdf
Was die Renyi-Entropie in Bezug auf die Quantenkomplexitätstheorie sagt, könnte eine spannende Frage sein! Kann man sich den Renyi-Index als eine Art Parametrisierung einer Hierarchie von Komplexitätsklassen vorstellen? Das sollte Spaß machen, wenn es stimmt! Lass es mich wissen :)
quelle
Die Renyi-Entropie hat ihren Weg in Definitionen des quantitativen Informationsflusses , eines Gebiets oder der Sicherheitsforschung gefunden. Siehe das Umfragepapier von G. Smith .
quelle