In der Bayes'schen Wahrscheinlichkeitstheorie ist Wahrscheinlichkeit unser Ausdruck von Wissen über eine bestimmte Sache, nicht eine Eigenschaft dieser Sache. Ich sehe jedoch immer Leute behandelnals ein Parameter, der geschätzt werden muss. Sie haben einen Prior für eingerichtet, normalerweise in Form einer Beta-Funktion, und aktualisieren Sie diese dann, wenn "Realisierungen" dieser Variablen eingehen.
Sogar der große Bayesianer Jaynes erweckt manchmal den Eindruck, dass er "die Wahrscheinlichkeiten abschätzt" oder nach dem sucht welches passt am besten zu den Daten:
Jetzt wollen wir nur die Hypothesen berücksichtigen, die zur 'Bernoulli-Klasse' gehören. in denen gibt es mögliche Ergebnisse bei jedem Versuch und die Wahrscheinlichkeiten des bei aufeinanderfolgenden Wiederholungen des Experiments werden als unabhängig und stationär angesehen;
Wahrscheinlichkeitstheorie, ET Jaynes, Seite 297
Das macht mich verwirrt, weil ist nicht eine Wahrscheinlichkeit , da es eine Eigenschaft der Zufallsvariable ist , und es ist nicht eine Frequenz , da die Variable ein einzelnes Ereignis darstellt.
quelle
Antworten:
Das ist irrelevant. Es hat nichts mit der Interpretation der Bedeutung von Wahrscheinlichkeit zu tun, da es nicht um Philosophie geht, sondern um ein genau definiertes mathematisches Objekt. Sie sehen Leute, die über die Schätzung des Wertes von diskutierenp weil Sie in Statistikhandbücher und Statistiken schauen, geht es darum, Dinge abzuschätzen, aber p a Parameter der Verteilung, kann sie bekannt oder unbekannt sein.
WennX. ist eine Bernoulli-Zufallsvariable mit der Wahrscheinlichkeit eines "Erfolgs" p , dann Pr ( X.= 1 ) = p per Definition. So ist ein Parameter dieser Verteilung, aber es ist auch Wahrscheinlichkeit „Erfolg“.p
Ja, Zufallsvariable beschreibt ein "einzelnes Ereignis". Wenn Sie also eine Münze werfen, ist das mögliche Ergebnis eine Zufallsvariable, da es unsicher ist. Nachdem Sie die Münze geworfen haben und das Ergebnis kennen, ist es nicht mehr zufällig, das Ergebnis ist sicher. In Bezug auf die Wahrscheinlichkeit betrachten Sie in einer frequentistischen Umgebung ein hypothetisches Szenario, in dem Sie das Münzwurf-Experiment sehr oft wiederholen würden und die Wahrscheinlichkeit gleich dem Anteil der Köpfe unter diesen Wiederholungen wäre. In der subjektiven Bayes'schen Umgebung ist die Wahrscheinlichkeit ein Maß dafür, wie sehr Sie glauben, dass Sie Köpfe beobachten werden.
Das Obige ist jedoch irrelevant, um zu hinterfragen, was ist. Dies ist ein Parameter, der auch der Wahrscheinlichkeit eines "Erfolgs" entspricht. Die Frage, wie Sie die Wahrscheinlichkeit interpretieren und was sie bedeutet, ist eine andere Frage.p
quelle
Wir können zum Beispiel eine Münze haben, für die wir nicht sicher sind, ob sie fair ist (p = 0,5 ) oder nicht (p ≤ 0,5 ). Trotzdem ist Fairness oder deren Fehlen eine Eigenschaft der Münze. Wir sind uns über diese Eigenschaft der Münze einfach nicht sicher.
Wir spezifizieren dann zum Beispiel eine Beta-Vorverteilung als vorherige Wahrscheinlichkeitsverteilung über die möglichen Erfolgswahrscheinlichkeiten in[ 0 , 1 ] . Dieser Prior kann zum Beispiel inspiriert werden, indem man sich die Münze ansieht und beurteilt, ob sie "fair" aussieht. Wenn es fair aussieht, werden wir geneigt sein, einen Prior mit viel Wahrscheinlichkeitsmasse anzugebenp = 0,5 .
In anderen Fällen, zum Beispiel, wenn wir uns vorher ein Bild über die Wahrscheinlichkeit machen, mit der ein Fußballspieler bei seiner nächsten Strafe erfolgreich sein wird - auch ein Bernoulli-Ergebnis, entweder ein Tor oder nicht -, neigen wir dazu, mehr Wahrscheinlichkeitsmasse aufzusetzenp um 0,8, weil professionelle Fußballspieler bei den meisten Strafen punkten.
Wir werfen dann die Münze / beobachten den Spieler ein paar Mal und fassen die Informationen in der Wahrscheinlichkeitsfunktion zusammen, um das Update zu erhalten, dh das Posterior.
quelle
Für eine ZufallsvariableX.∼ Bernoulli( p ) definiert auf einem Wahrscheinlichkeitsraum ( Ω , F., P.) , der Parameter p (eine Zahl) ist die Wahrscheinlichkeit eines bestimmten Ereignisses, nämlich des Ereignisses { X.= 1 } . Das ist,
p = P.( X.= 1 ) .
Die einzelne Nummer p bestimmt vollständig die Verteilung von X. da für jedes Borel-Set B ⊆ R. wir haben
P.( X.∈ B )=1B.( 0 ) P.( X.= 0 ) +1B.( 1 ) P.( X.= 1 )= ( 1 - p )1B.( 0 ) + p1B.( 1 ) .
(Hier 1B. ist die Anzeigefunktion von B. .) Aus diesem Grund wird die Familie der Bernoulli-Verteilungen durch das Intervall parametrisiert [ 0 , 1 ] . Diese Tatsache ist unabhängig von einer frequentistischen oder bayesianischen Interpretation der Statistik: Sie ist nur eine Tatsache der Wahrscheinlichkeit.
Wenn wir Bayesianer sind, möchten wir den Parameterp eine Zufallsvariable selbst mit einer vorherigen Verteilung zu sein. Formal können wir sagen, dass unser Parameter eine Zufallsvariable istΠ unterstützt am [ 0 , 1 ] und wir haben
X.Bern Π ∼ Bernoulli( Π ) ,
was bedeutet, dass
P.( X.= 1 ∣ Π )= Π ,P.( X.= 0 ∣ Π )= 1 - Π
fast sicher (oder
P.( X.= 1 ∣ Π = p )= p ,P.( X.= 0 ∣ Π = p )= 1 - p
für jeden p ∈ [ 0 , 1 ] ). In diesem Fall der ParameterΠ (eine Zufallsvariable) ist die bedingte Wahrscheinlichkeit des Ereignisses{ X.= 1 } gegeben Π . Diese bedingte Wahrscheinlichkeit zusammen mit der Verteilung vonΠ (die vorherige Verteilung) bestimmt vollständig die Verteilung von X. schon seitP.( X.∈ B )= E.[ S.( X.∈ B ∣ Π ) ]= E.[1B.( 0 ) P.( X.= 0 ∣ Π ) +1B.( 1 ) P.( X.= 1 ∣ Π ) ]= E.[ ( 1 - Π )1B.( 0 ) + Π1B.( 1 ) ]= ( 1 - E.[ Π ] )1B.(0)+E[Π]1B(1)
für jedes Borel-Set B ⊆ R. .
In jedem Fall, ob frequentistisch oder bayesianisch, ist der übliche Parameter der Bernoulli-Daten die Wahrscheinlichkeit (entweder marginal oder bedingt) eines Ereignisses.
quelle