Ich lese über Entropie und kann mir nur schwer vorstellen, was es im kontinuierlichen Fall bedeutet. Die Wiki-Seite besagt Folgendes:
Die Wahrscheinlichkeitsverteilung der Ereignisse bildet zusammen mit der Informationsmenge jedes Ereignisses eine Zufallsvariable, deren Erwartungswert die durchschnittliche Informationsmenge oder Entropie ist, die durch diese Verteilung erzeugt wird.
Wenn ich also die Entropie berechne, die mit einer stetigen Wahrscheinlichkeitsverteilung verbunden ist, was sagt mir das wirklich? Sie geben ein Beispiel für das Werfen von Münzen, also den diskreten Fall, aber wenn es einen intuitiven Weg gibt, dies durch ein Beispiel wie dieses im kontinuierlichen Fall zu erklären, wäre das großartig!
Wenn es hilft, lautet die Definition der Entropie für eine kontinuierliche Zufallsvariable wie folgt:
Um dies konkreter zu machen, betrachte man den Fall von , dann ist laut Wikipedia die Entropie
Und jetzt haben wir die Entropie für eine stetige Verteilung (die Gamma-Verteilung) berechnet. Wenn ich also diesen Ausdruck bei α und β auswerte , was sagt mir diese Größe dann eigentlich?
Antworten:
Die Entropie zeigt Ihnen, wie viel Unsicherheit im System ist. Angenommen, Sie suchen eine Katze und wissen, dass sie sich zwischen Ihrem Haus und den Nachbarn befindet, die 1,6 km entfernt sind. Ihre Kinder sagen Ihnen, dass die Wahrscheinlichkeit, dass sich eine Katze auf der Strecke von Ihrem Haus befindet, am besten durch die Betaverteilung f ( x ; 2 , 2 ) beschrieben wird . So eine Katze wahrscheinlich in der Mitte, dh zwischen 0 und 1, aber könnte überall seine x m ein x = 1 / 2 .x f( x ; 2 , 2 ) xm a x= 1 / 2
Fügen wir die Beta-Verteilung in Ihre Gleichung ein, dann erhalten Sie .H= - 0,125
Als nächstes fragst du deine Frau und sie sagt dir, dass die beste Verteilung, um ihr Wissen über deine Katze zu beschreiben, die Gleichverteilung ist. Wenn Sie es mit Ihrer Entropiegleichung verbinden, erhalten Sie .H= 0
Sowohl die Uniform- als auch die Betaverteilung lassen die Katze zwischen 0 und 1 Meilen von Ihrem Haus entfernt sein, aber es gibt mehr Unsicherheit in der Uniform, da Ihre Frau wirklich keine Ahnung hat, wo sich die Katze versteckt, während Kinder eine Ahnung haben , sie denken, dass es mehr ist wahrscheinlich irgendwo in der Mitte sein. Deshalb ist Betas Entropie niedriger als die von Uniform.
Sie könnten andere Distributionen versuchen, vielleicht Ihr Nachbar sagt , dass Sie die Katze mag in der Nähe von einem der Häuser sein, so dass seine Beta - Verteilung mit ist . Sein H muss wieder niedriger sein als das der Uniform, weil Sie eine Vorstellung davon haben, wo Sie nach einer Katze suchen müssen. Erraten Sie, ob die Informationsentropie Ihres Nachbarn höher oder niedriger ist als die Ihrer Kinder? Ich würde in diesen Angelegenheiten jeden Tag auf Kinder wetten.α = β= 1 / 2 H
AKTUALISIEREN:
Wie funktioniert das? Eine Möglichkeit, dies zu sehen, besteht darin, mit einer einheitlichen Verteilung zu beginnen. Wenn Sie damit einverstanden sind, dass es das mit der größten Unsicherheit ist, dann denken Sie daran, es zu stören. Schauen wir uns der Einfachheit halber den diskreten Fall an. Nehmen von einem Punkt und fügen Sie es ein anderes wie folgt: p ' i = p - Δ p p ' j = p + Δ pΔ p
quelle
Ich möchte eine einfache Antwort auf diese Frage hinzufügen:
Es ist intuitiv, dies in einem diskreten Szenario zu veranschaulichen. Angenommen, Sie werfen eine stark voreingenommene Münze und sagen, dass die Wahrscheinlichkeit, bei jedem Wurf einen Kopf zu sehen, 0,99 beträgt. Jeder tatsächliche Schlag sagt Ihnen sehr wenig Informationen, weil Sie fast schon wissen, dass es Kopf sein wird. Aber wenn es um eine gerechtere Münze geht, ist es nicht schwieriger für Sie, eine Vorstellung davon zu haben, was Sie zu erwarten haben. Bei jedem Umdrehen erhalten Sie mehr Informationen als bei jeder voreingenommeneren Münze. Die Informationsmenge, die durch Beobachtung eines einzelnen Wurfs erhalten wird, wird mit gleichgesetztLog1p ( x )
quelle