Bayes Theorem Intuition

22

Ich habe versucht, ein auf Intuition basierendes Verständnis des Bayes'schen Theorems in Bezug auf Prior , Posterior , Likelihood und marginale Wahrscheinlichkeit zu entwickeln. Dafür verwende ich die folgende Gleichung: wobei eine Hypothese oder einen Glauben darstellt und Daten oder Beweise darstellt. Ich habe das Konzept des Seitenzahns verstanden - es ist eine einheitliche Einheit, die die vorherige Überzeugung und die Wahrscheinlichkeit eines Ereignisses kombiniert . Was ich nicht verstehe, ist, was die Wahrscheinlichkeit bedeutet? Und warum ist das marginal A

P(B|EIN)=P(EIN|B)P(B)P(EIN)
EINB
Wahrscheinlichkeit im Nenner?
Nachdem ich einige Ressourcen durchgesehen hatte, stieß ich auf folgendes Zitat:

Die Wahrscheinlichkeit ist das Gewicht des Ereignisses das durch das Auftreten von ... ist. Dies ist die hintere Wahrscheinlichkeit des Ereignisses , wenn das Ereignis eingetreten ist.A P ( B | A ) B ABEINP(B|EIN)BEIN

Die obigen 2 Aussagen scheinen mir identisch zu sein, nur auf verschiedene Arten geschrieben. Kann jemand bitte den Unterschied zwischen den beiden erklären?

Anas Ayubi
quelle
4
Sie haben einen Tippfehler (oder ein Missverständnis). sollte die "Hypothese oder Überzeugung" sein, und sollte die "Daten oder Beweise" in Ihrer Formulierung sein. ABEIN
gung - Reinstate Monica
1
Siehe meine Antwort unter math.stackexchange.com/a/1943255/1505. So habe ich es intuitiv verstanden
Lyndon White,

Antworten:

27

Zwar gibt es in Bayes Gesetz vier Komponenten sind, ziehe ich es in Bezug auf die drei konzeptuellen Komponenten zu denken:

P(B|EIN)2=P(EIN|B)P(EIN)3P(B)1
  1. Das Vorherige ist das, was Sie über geglaubt haben, bevor Sie auf eine neue und relevante Information gestoßen sind (dh ). AB EIN
  2. Die hintere ist , was Sie glauben (oder soll, wenn man rational) über nach einem neuen und relevanten Information gestoßen zu haben. B
  3. Der Quotient aus der Wahrscheinlichkeit , dividiert durch die Randwahrscheinlichkeit der neuen Information Indizes die Aussage der neuen Informationen für Ihre Überzeugungen über . B
gung - Wiedereinsetzung von Monica
quelle
19

Es gibt bereits einige gute Antworten, aber vielleicht kann dies etwas Neues hinzufügen ...

Ich denke immer an die Bayes-Regel in Bezug auf die Komponentenwahrscheinlichkeiten, die geometrisch in Bezug auf die Ereignisse und B wie unten abgebildet verstanden werden können.EINB

Ereignissätze

Die Grenzwahrscheinlichkeiten und P ( B ) sind durch die Flächen der entsprechenden Kreise gegeben. Alle möglichen Ergebnisse werden durch P ( A B ) = 1 dargestellt , was der Menge von Ereignissen " A oder B " entspricht. Die gemeinsame Wahrscheinlichkeit P ( A B ) entspricht dem Ereignis " A und B ".P(EIN)P(B)P(EINB)=1EINB P(EINB)EINB

In diesem Rahmen können die bedingten Wahrscheinlichkeiten im Bayes-Theorem als Flächenverhältnisse verstanden werden. Die Wahrscheinlichkeit von gegebenem B ist der Bruchteil von B, der von A B besetzt ist , ausgedrückt als P ( A | B ) = P ( A B ).EINBBEINB In ähnlicher Weisedie Wahrscheinlichkeit vonBgegebenAbeträgt der Anteil anAdurch belegteAB,heißt P(B|A)=P(AB)

P(EIN|B)=P(EINB)P(B)
BEINEINEINB
P(B|EIN)=P(EINB)P(EIN)

P(B|EIN)P(EIN)=P(EINB)=P(EIN|B)P(B)
p(EIN)p(B)

(Eine andere Art und Weise, die obige Diskussion zu verstehen, ist in meiner Antwort auf diese Frage unter dem Gesichtspunkt einer "Buchhaltungstabelle" gegeben.)

GeoMatt22
quelle
9

@gung hat eine tolle Antwort. Ich würde ein Beispiel hinzufügen, um die "Initiation" in einem realen Beispiel zu erklären.

HEINEB

Die Formel lautet also

P(H|E)=P(E|H)P(H)P(E)

Beachten Sie, dass die gleiche Formel geschrieben werden kann wie

P(H|E)P(E|H)P(H)

P(E|H)P(H)P(E)E

H{0,1}

11000P(H=1)=0,001P(H=0)=0,999

P(H|E)

E{0,1}

P(E=1|H=0)P(E=1|H=1)

E=1

Haitao Du
quelle
P(H=0)0,999P(H=1)=0,001
1

Beachten Sie, dass die Bayes-Regel lautet

P(ein|b)=P(b,ein)P(b)=P(b,ein)P(b)P(ein)P(ein)

Beachten Sie das Verhältnis

P(b,ein)P(b)P(ein).

BEINP(b,ein)=P(b)P(ein)

Interessanterweise ist das Protokoll dieses Verhältnisses auch in gegenseitigen Informationen vorhanden:

ich(EIN|B)=ein,bP(ein,b)LogP(b,ein)P(b)P(ein)

user0
quelle
0

P(EIN,B)

Wahrscheinlichkeit = Zeilenproportionen posterior = Spaltenproportionen

Prior und Marginal werden analog definiert, basieren jedoch auf "Summen" anstelle einer bestimmten Spalte

marginale = Zeilengesamtanteile prior = Spaltengesamtanteile

Ich finde das hilft mir.

Wahrscheinlichkeitslogik
quelle