Wie kann ich die hintere Wahrscheinlichkeit berechnen, wenn mein Prior als kontinuierliche Wahrscheinlichkeitsverteilung modelliert wird, beispielsweise als Beta-Verteilung, die verzerrt ist, um meine Neigung zu bestimmten Modellen widerzuspiegeln?
Die Herausforderung für mich besteht darin, die Wahrscheinlichkeit eines bestimmten Modells zu berechnen, da die kontinuierliche Verteilung nur Schätzungen für Intervalle liefert .
Bitte verzeihen Sie die Naivität der Frage, ich habe erst vor kurzem angefangen, Bayes'sche Statistik zu studieren.
Antworten:
Zum Vergleichen von Modellen sagen Sie und die klassische Bayes'sche Antwort (Jeffreys, 1939), um einen Bayes-Faktor ) zu erzeugen Wenn ist größer als Die Daten bevorzugen das Modell ; Wenn kleiner als , bevorzugen die Daten das Modell . M 2 ={ f 2 (⋅ | θ 2 ); θ 2 ∈ & THgr; 2 } B 12 (x)= ∫ & THgr; 1 F 1 ( x | θ 1 ) π 1 ( d θ 1
quelle
Der Bayes-Satz lautet:
In einem Fall, in dem Sie Daten und einen Parameter haben, wird häufig für den Parameter (oder Parametervektor) und für die Daten verwendet.xθ x
Sie können , einen Prior , und Sie haben möglicherweise ein Modell das die Wahrscheinlichkeit Ihrer Daten bei gegebenem Modell angibt. Sie können dann die Bayes-Regel / den Bayes-Satz verwenden, um dies zu "invertieren" und .θ p ( θ ) p ( x | θ ) p ( θ | x )
Nur in einer relativ kleinen Anzahl von Beispielen ist es möglich, Lösungen in geschlossener Form für . In willkürlichen Fällen approximieren Sie häufig die posteriore Verteilung mit einigen Standardmethoden in der Bayes'schen Statistik. Die beiden häufigsten allgemeinen Ansätze sind beispielsweise Markov-Kette Monte Carlo oder Variations-Bayes.p(θ|x)
Angenommen, Sie interessieren sich für einen einfachen Fall, in dem eine geschlossene Form posterior existiert. Ein Beispiel hierfür wäre, wenn eine Standardnormalen (Gaußsch mit Einheitsvarianz und Nullmittelwert) und eine Normalen mit einem Mittelwert von und Einheitsvarianz ist.p(θ) p(x|θ) θ
Ich werde der Einfachheit halber Normalisierungsfaktoren weglassen. Beachten Sie auch, dass der Nenner in der Bayes-Regel dazu neigt, Dinge einfach zu renormieren: Kombinieren wir die Exponenten und vervollständigen das Quadrat Denken Sie daran, dass x hier festgelegt ist, weil es beobachtet wurde und wir erwarten möchten, dass unsere Antwort diesbezüglich lautet. Vervollständigen Sie das Quadrat und sehen Sie, dass der Exponent wobei andere Terme von x abhängen. Also:
wobei 'a' ein Faktor ist, der durch Buchhaltung erhalten werden kann. Beachten Sie, dass der hintere Teil eine Normalverteilung mit dem Mittelwert x / 2 ist. Versuchen Sie, die Varianz für sich selbst zu berechnen.
Beachten Sie, dass unsere Antwort intuitiv sinnvoll ist ... der Prior sagte, dass Null ist und wir eine Stichprobe , die den erwarteten Wert von . Da die Varianz des Prior und die Verteilung gleich groß sind, vertrauen wir ihnen gleichermaßen. Dementsprechend ist unser Posterior eine Verteilung mit einem Mittelwert, der der Durchschnitt von und 0 ist und am Ende eine geringere Varianz aufweist als das anfängliche oder (hier nicht gezeigt). x θ p ( x | θ ) x p ( x | θ ) p ( x )θ x θ p(x|θ) x p(x|θ) p(x)
Zum Modellvergleich können Sie sich ein Verhältnis ansehen:
Dies wird als Wahrscheinlichkeitsverhältnis bezeichnet (siehe Wikipedia oder anderswo). Hier brauchen Sie den Seitenzahn nicht, sondern schauen sich nur an, wie (relativ) wahrscheinlich Ihre Daten (oder Beobachtungen) entweder oder als Parameter des Modells erhalten, das Ihre Beobachtungen generiert hat. θ 2θ1 θ2
Hoffe das hilft.
quelle