Bayesianische Aktualisierung - Beispiel für das Werfen von Münzen

7

Ich habe eine Frage zur Bayes'schen Aktualisierung. Im Allgemeinen bezieht sich die Bayes'sche Aktualisierung auf den Prozess des Erhaltens des Seitenzahns aus einer vorherigen Glaubensverteilung.

Alternativ könnte man den Begriff so verstehen, dass der hintere Teil des ersten Schritts als vorherige Eingabe für die weitere Berechnung verwendet wird.

Das Folgende ist ein einfaches Berechnungsbeispiel. Methode a ist die Standardberechnung. Methode b verwendet die hintere Ausgabe als Eingabe, bevor die nächste hintere Ausgabe berechnet wird.

Mit Methode a erhalten wir P (F | HH) = 0,2. Unter Verwendung von Methode b ergibt sich P (F | HH) = 0,05. Meine Frage ist, inwieweit Methode b ein gültiger Ansatz ist.


Problem: Sie werfen zweimal eine Münze und erhalten 2 Köpfe. Wie groß ist die Wahrscheinlichkeit, dass die Münze fair ist, dh ?Pr(Fair coin|HH)

Nun zum ersten Wurf: Pr(Fair coin|H)=Pr(Head|Fair)P(Fair)Pr(Head|Fair)P(Fair)+Pr(Head|Biased)P(Biased)=Pr(H|F)P(F)P(H)(1)

Unter der Annahme, dass der vorherige Glaube P (fair) = 0,5 ist, möchten Sie P (F | H) für den ersten Wurf finden

Nachfolgend finden Sie die Berechnung für die Zwischenschritte:

P(H|F)=(nx)θx(1θ)nx=(11)0.51(0.5)0=0.5

P(H)=P(H|F)P(F)+P(H|Biased)P(Biased)=(0.50.5)+(10.5)=0.75

(Hinweis: P (H | voreingenommen) = 1, da unter der Annahme eines extremen Beispiels mit Köpfen auf beiden Seiten der Münze die Wahrscheinlichkeit, Köpfe mit einer voreingenommenen Münze zu erhalten, = 1 ist (erleichtert die Berechnung))

Wenn wir also (1) einstecken, erhalten wir:

Pr(F|H)=Pr(H|F)P(F)P(H)=0.50.50.75=0.33


Jetzt werfen wir die Münze erneut und erhalten ein weiteres H. Um zu berechnen , müssen wirPr(F|HH)

a) Verwenden Sie weiterhin P (Fair) = 0,5

Pr(F|HH)=Pr(HH|F)P(F)Pr(HH|F)P(F)+Pr(HH|Biased)P(Biased)=Pr(HH|F)P(F)P(HH)(2)

P(HH|F)=(nx)θx(1θ)nx=(22)0.52(0.5)0=0.25

P(HH)=P(HH|F)P(F)+P(HH|Biased)P(Biased)=(0.250.5)+(10.5)=0.625

Wenn Sie also (2) , ist Pr(F|HH)=Pr(HH|F)P(F)P(HH)=0.250.50.625=0.2


Was ist alternativ, wenn wir mit verwendenPr(F|HH)

b) unsere aktualisierte Überzeugung P (fair) = 0,33, die wir im ersten Schritt von Pr (F | H) erhalten haben

In diesem Fall,

P(HH|F)=(nx)θx(1θ)nx=(22)0.332(10.33)0=0.1089

P(HH)=P(HH|F)P(F)+P(HH|Biased)P(Biased)=(0.10890.33)+(10.67)=0.705937

Wenn Sie also (2) , ist Pr(F|HH)=Pr(HH|F)P(F)P(HH)=0.10890.330.705937=0.05091


Mit Methode a erhalten wir P (F | HH) = 0,2. Unter Verwendung von Methode b ergibt sich P (F | HH) = 0,05. Meine Frage ist, inwieweit Methode b ein gültiger Ansatz ist.

TinaW
quelle
Wie haben Sie begründet, dass die Wahrscheinlichkeit, mit einer voreingenommenen Münze Köpfe zu bekommen, 1 beträgt? Egal wie oft Sie die Münze werfen, die Wahrscheinlichkeit, dass sie fair ist, ist Null.
Neil G
Wenn die Münze voreingenommen ist und wir einen Kopf sehen, bedeutet dies, dass die Münze auf beiden Seiten einen Kopf hat. Wir werden immer Kopf sehen, also Wahrscheinlichkeit, Kopf mit einer voreingenommenen Münze zu bekommen = 1.
TinaW
1
Normalerweise bedeutet eine voreingenommene Münze nur, dass sie nicht fair ist, aber sie könnte eine Voreingenommenheit haben. Sie sollten in Ihrer Frage klarstellen, dass Sie nur die Möglichkeiten in Betracht ziehen, dass entweder die Münze vollkommen fair ist oder immer auf den Kopf kommt. Vielleicht möchten Sie dies als Urnenproblem umformulieren, da dies keine sehr realistische Münze ist.
Neil G
1
"In der Tat ist eine Münze entweder völlig fair oder völlig voreingenommen." - Nicht wirklich. Es gibt sehr wenige Münzen, die entweder völlig fair oder "völlig voreingenommen" sind.
Neil G
1
beide Seiten Köpfe
TinaW

Antworten:

11

Ihr Ansatz b) ist falsch: sowohl die Einzelschrittaktualisierung , bei der alle Daten zusammen verwendet werden, um den Prior zu aktualisieren und zum Posterior zu gelangen, als auch die Bayes'sche sequentielle (auch als rekursive bezeichnete ) Aktualisierung , bei der die Daten einzeln verwendet werden Um einen Posterior zu erhalten, der der Prior der aufeinanderfolgenden Iteration wird, muss genau das gleiche Ergebnis erzielt werden. Dies ist eine der Säulen der Bayes'schen Statistik: Konsistenz .

Ihr Fehler ist einfach: Sobald Sie den Prior mit dem ersten Beispiel (dem ersten "Kopf") aktualisiert haben, müssen Sie nur noch ein Beispiel in Ihre Wahrscheinlichkeit einbeziehen, um den neuen Prior zu aktualisieren. In Formeln:

P(F|HH)=P(H|H,F)P(F|H)P(H|H)

Diese Formel ist nur der Satz von Bayes, der angewendet wird, nachdem das erste Ereignis "Head" bereits stattgefunden hat: Da bedingte Wahrscheinlichkeiten selbst Wahrscheinlichkeiten sind, gilt der Satz von Bayes auch für Wahrscheinlichkeiten, die an das Ereignis "Head" konditioniert sind, und es gibt nichts mehr zu beweisen . Ich habe jedoch festgestellt, dass die Leute dieses Ergebnis manchmal nicht für selbstverständlich halten, daher gebe ich einen etwas langwierigen Beweis.

P(F|HH)=P(HH|F)P(F)P(HH)=P(H|H,F)P(H|F)P(F)P(HH)

durch die Kettenregel der bedingten Wahrscheinlichkeiten. Wenn Sie dann Zähler und Nenner mit multiplizieren , erhalten SieP(H)

P(H|H,F)P(H|F)P(F)P(HH)=P(H|H,F)P(H|F)P(F)P(H)P(HH)P(H)=P(H|H,F)P(H)P(HH)P(H|F)P(F)P(H)=P(H|H,F)P(H|H)P(H|F)P(F)P(H)=P(H|H,F)P(F|H)P(H|H)

wo ich im letzten Schritt gerade den Satz von Bayes angewendet habe. Jetzt:

P(H|H,F)=P(H|F)=0.5

Dies ist offensichtlich: Unter der Bedingung, dass die Münze fair (oder voreingenommen) ist, modellieren wir die Münzwürfe als iid. Wenn wir dieselbe Idee auf den Nenner anwenden, erhalten wir:

P(H|H)=P(H|F,H)P(F|H)+P(H|B,H)P(B|H)=P(H|F)P(F|H)+P(H|B)P(B|H)=0.50.3¯+10.6¯

Schließlich:

P(F|HH)=P(H|H,F)P(F|H)P(H|H)=0.50.3¯0.50.3¯+10.6¯=0.2

QED


Das war's: Viel Spaß mit der Bayes'schen sequentiellen Aktualisierung, sie ist in vielen Situationen sehr nützlich! Wenn Sie mehr wissen möchten, gibt es im Internet viele Ressourcen: Das ist ziemlich gut.

DeltaIV
quelle