Wahrscheinlichkeit vs. Wahrscheinlichkeit

8

Ich habe Schwierigkeiten mit Wahrscheinlichkeiten . Ich verstehe den Satz von Bayes

p(A|B,H)=p(B|A,H)p(A|H)p(B|H)

was direkt aus der Anwendung von . In meiner Interpretation sind die -Funktionen im Bayes-Theorem also irgendwie alle Wahrscheinlichkeiten, entweder marginal oder bedingt. Ich habe also tatsächlich gedacht, dass die Wahrscheinlichkeit als Konzept eher eine häufigere Sicht auf die inverse Wahrscheinlichkeit ist.p(A,B)=p(B)p(A|B)=p(A)p(B|A)=p(B,A)p()

Ich habe jetzt jedoch wiederholt Aussagen in den Büchern der Bayesianisten gesehen, die besagen, dass die Wahrscheinlichkeit keine Wahrscheinlichkeitsverteilung ist. Als ich gestern MacKays Buch las, stolperte ich über die folgende Aussage

"[...] es ist wichtig zu beachten, dass die Begriffe Wahrscheinlichkeit und Wahrscheinlichkeit keine Synonyme sind. Die Größe ist eine Funktion von und . Für festes , definiert eine Wahrscheinlichkeit über , für feste , definiert die likeihood von .“P(nb|u,N)nBuuP(nb|u,N)nBnBP(nB|u,N)u

  • Ich verstehe das wie folgt: ist eine Wahrscheinlichkeit von unter gegebenem , also eine Funktion . Wenn wir jedoch einen gegebenen Wert und die Abhängigkeit von von verschiedenen bewerten , verwenden wir tatsächlich eine andere Funktion .p(A|B)ABprobability:A[0,1]aAp(A=a|B)bBL:B[0,1]

  • Ist diese Interpretation richtig?

  • Kann man dann sagen, dass Maximum-Likelihood-Methoden durch den Bayes'schen Satz motiviert werden könnten, bei dem der Prior als konstant gewählt wird?

wirrbel
quelle
1
Als Element der Antwort rate ich Ihnen die Antwort mit Links von Stephane Laurent in mathoverflow.net/questions/10971/… . Ich hoffe es hilft.
Peuhp

Antworten:

7

Ich denke, der beste Weg, den Begriff der Wahrscheinlichkeit zu erklären, besteht darin, ein konkretes Beispiel zu betrachten. Angenommen, ich habe eine Stichprobe von IID-Beobachtungen aus einer Bernoulli-Verteilung mit unbekannter Erfolgswahrscheinlichkeit : , , also die gemeinsame Wahrscheinlichkeitsmassenfunktion der Stichprobe ist Dieser Ausdruck charakterisiert auch die Wahrscheinlichkeit von bei einer beobachteten Stichprobe : Aber wenn wir an denkenpXiBernoulli(p)i=1,,n

Pr[X=xp]=i=1npxi(1p)1xi.
px=(x1,,xn)
L(px)=i=1npxi(1p)1xi.
pals Zufallsvariable ist diese Wahrscheinlichkeit keine Dichte: Sie ist jedoch proportional zu einer Wahrscheinlichkeitsdichte, die ist warum wir sagen, dass es eine Wahrscheinlichkeit ist, dass ein bestimmter Wert ist, wenn die Stichprobe gegeben ist - es repräsentiert in gewissem Sinne die relative Plausibilität von , ein Wert für die Beobachtungen zu sein, die wir gemacht haben.
p=01L(px)dp1.
pp

Angenommen, und die Probe war . Intuitiv würden wir schließen, dass eher näher an als an , weil wir mehr beobachtet haben. In der Tat haben wir Wenn wir diese Funktion auf zeichnen , können wir sehen, wie die Wahrscheinlichkeit unsere Intuition bestätigt. Natürlich wissen wir nicht, dass der wahre Wert von - es könnte statt , aber die Wahrscheinlichkeitsfunktion sagt uns, dass der erstere viel weniger wahrscheinlich ist als der letztere. Aber wenn wir eine Wahrscheinlichkeit bestimmen wollenn=5x=(1,1,0,1,1)p10

L(px)=p4(1p).
p[0,1]pp=0.25p=0.8dass in einem bestimmten Intervall liegt, müssen wir die Wahrscheinlichkeit normalisieren: Da , folgt daraus, dass in Um eine posteriore Dichte für , müssen wir mit multiplizieren : Tatsächlich ist dieser Posterior eine Beta-Verteilung mit den Parametern . Nun entsprechen die Flächen unter der Dichte den Wahrscheinlichkeiten.pp=01p4(1p)dp=130p30
fp(px)=30p4(1p).
a=5,b=2

Was wir hier im Wesentlichen getan haben, ist die angewandte Bayes-Regel: Hier ist eine vorherige Verteilung auf die Parameter , der Zähler ist die Wahrscheinlichkeit Das ist auch die gemeinsame Verteilung von

fΘ(θx)=fX(xθ)fΘ(θ)fX(x).
fΘ(θ)θL(θx)=fX(xθ)fΘ(θ)=fX,Θ(x,θ)X,Θ und der Nenner ist die marginale (bedingungslose) Dichte von , die durch Integrieren der Gelenkverteilung in Bezug auf , um die Normalisierungskonstante zu finden, die die Wahrscheinlichkeit zu einer Wahrscheinlichkeitsdichte mit macht in Bezug auf die Parameter. In unserem numerischen Beispiel haben wir implizit den Prior für , um auf einheitlich zu sein . Es kann gezeigt werden, dass für eine Bernoulli-Stichprobe, wenn der Prior , der Posterior für ebenfalls Beta ist, jedoch mit den Parametern ,XθfΘ[0,1]Beta(a,b)fΘa=a+xib=b+nxi. Wir nennen ein solches vorheriges Konjugat (und bezeichnen dies als ein Bernoulli-Beta-Konjugatpaar).
Heropup
quelle