Ich habe Schwierigkeiten mit Wahrscheinlichkeiten . Ich verstehe den Satz von Bayes
was direkt aus der Anwendung von . In meiner Interpretation sind die -Funktionen im Bayes-Theorem also irgendwie alle Wahrscheinlichkeiten, entweder marginal oder bedingt. Ich habe also tatsächlich gedacht, dass die Wahrscheinlichkeit als Konzept eher eine häufigere Sicht auf die inverse Wahrscheinlichkeit ist.
Ich habe jetzt jedoch wiederholt Aussagen in den Büchern der Bayesianisten gesehen, die besagen, dass die Wahrscheinlichkeit keine Wahrscheinlichkeitsverteilung ist. Als ich gestern MacKays Buch las, stolperte ich über die folgende Aussage
"[...] es ist wichtig zu beachten, dass die Begriffe Wahrscheinlichkeit und Wahrscheinlichkeit keine Synonyme sind. Die Größe ist eine Funktion von und . Für festes , definiert eine Wahrscheinlichkeit über , für feste , definiert die likeihood von .“
Ich verstehe das wie folgt: ist eine Wahrscheinlichkeit von unter gegebenem , also eine Funktion . Wenn wir jedoch einen gegebenen Wert und die Abhängigkeit von von verschiedenen bewerten , verwenden wir tatsächlich eine andere Funktion .
Ist diese Interpretation richtig?
Kann man dann sagen, dass Maximum-Likelihood-Methoden durch den Bayes'schen Satz motiviert werden könnten, bei dem der Prior als konstant gewählt wird?
quelle
Antworten:
Ich denke, der beste Weg, den Begriff der Wahrscheinlichkeit zu erklären, besteht darin, ein konkretes Beispiel zu betrachten. Angenommen, ich habe eine Stichprobe von IID-Beobachtungen aus einer Bernoulli-Verteilung mit unbekannter Erfolgswahrscheinlichkeit : , , also die gemeinsame Wahrscheinlichkeitsmassenfunktion der Stichprobe ist Dieser Ausdruck charakterisiert auch die Wahrscheinlichkeit von bei einer beobachteten Stichprobe : Aber wenn wir an denkenp Xi∼Bernoulli(p) i=1,…,n
Angenommen, und die Probe war . Intuitiv würden wir schließen, dass eher näher an als an , weil wir mehr beobachtet haben. In der Tat haben wir Wenn wir diese Funktion auf zeichnen , können wir sehen, wie die Wahrscheinlichkeit unsere Intuition bestätigt. Natürlich wissen wir nicht, dass der wahre Wert von - es könnte statt , aber die Wahrscheinlichkeitsfunktion sagt uns, dass der erstere viel weniger wahrscheinlich ist als der letztere. Aber wenn wir eine Wahrscheinlichkeit bestimmen wollenn=5 x=(1,1,0,1,1) p 1 0
Was wir hier im Wesentlichen getan haben, ist die angewandte Bayes-Regel: Hier ist eine vorherige Verteilung auf die Parameter , der Zähler ist die Wahrscheinlichkeit Das ist auch die gemeinsame Verteilung von
quelle