Ich habe kürzlich angefangen, "Introduction to Bayesian Statistics" (Einführung in die Bayes'sche Statistik), 2. Ausgabe von Bolstad, zu lesen. Ich hatte eine Einführungs-Statistik-Klasse, die hauptsächlich statistische Tests abdeckte und fast durch eine Klasse in Regressionsanalyse geht. Welche anderen Bücher kann ich verwenden, um mein Verständnis dieses zu ergänzen?
Ich habe die ersten 100-125 Seiten gut durchgearbeitet. Danach beginnt das Buch über Hypothesentests zu sprechen, worauf ich mich sehr freue, aber da werfen mich ein paar Dinge auf:
- Die Verwendung von Wahrscheinlichkeitsdichtefunktionen in Berechnungen. Mit anderen Worten, wie man solche Gleichungen bewertet.
- Diesen ganzen Satz: "Nehmen wir an, wir verwenden ein Beta (1,1) vor pi. Dann ist bei y = 8 die hintere Dichte Beta (9,3). Die hintere Wahrscheinlichkeit der Nullhypothese ist ..." Ich glaube Beta (1,1) bezieht sich auf ein PDF, bei dem der Mittelwert 1 und der Standardwert 1 ist. Ich verstehe nicht, wie es sich in eine Beta (9,3) als Funktion der hinteren Dichte ändern würde.
Ich verstehe das Konzept von Priors vs Posteriors und verstehe, wie man sie mithilfe einer Tabelle manuell anwendet. Ich verstehe (glaube ich!), Dass pi den angenommenen Bevölkerungsanteil oder die Wahrscheinlichkeit darstellt.
Ich verstehe nicht, wie ich das mit Daten verknüpfen kann, die mir täglich begegnen und zu Ergebnissen führen.
quelle
Antworten:
Ich denke, Sie denken immer noch aus einer häufigeren Perspektive darüber nach: Wenn Sie nach einer Punktschätzung suchen, wird sie Ihnen der Posterior nicht geben. Sie legen PDFs ein, Sie erhalten PDFs heraus. Sie können Punktschätzungen ableiten, indem Sie Statistiken aus Ihrer posterioren Verteilung berechnen, aber darauf komme ich gleich zurück.
ist dasselbe wie p ( x ) : beide PDFs. π wird herkömmlicherweise nur verwendet, um anzuzeigen, dass das bestimmte PDF eine frühere Dichte aufweist.π( x ) p ( x ) π
Ich vermute, dass Sie nicht so viele Vor- und Nachzügler haben, wie Sie glauben. Lassen Sie es uns auf die fundamentale Grundlage der Bayes'schen Statistik zurückführen: Subjektive Wahrscheinlichkeit .
Ein Gedankenexperiment zur subjektiven Wahrscheinlichkeit
Nehmen wir an, ich überreiche Ihnen eine Münze und frage Sie, ob Sie diese Münze für eine faire Münze halten oder nicht. Sie haben eine Menge Leute über unfaire Münzen in der Wahrscheinlichkeitsklasse sprechen hören, aber Sie haben noch nie eine im wirklichen Leben gesehen. Deshalb antworten Sie: "Ja, sicher, ich denke, es ist eine faire Münze." Aber die Tatsache, dass ich Ihnen diese Frage stelle, schreckt Sie ein wenig ab. Obwohl Sie davon ausgehen, dass es fair ist, wären Sie nicht wirklich überrascht, wenn es nicht so wäre. Viel weniger überrascht, als wenn Sie diese Münze in Ihrem Kleingeld gefunden hätten (weil Sie annehmen, dass das alles echte Währung ist und Sie mir im Moment nicht wirklich vertrauen, weil ich misstrauisch bin).
Jetzt führen wir einige Experimente durch. Nach 100 Flips gibt die Münze 53 Heads zurück. Sie sind viel sicherer, dass es eine faire Münze ist, aber Sie sind immer noch offen für die Möglichkeit, dass dies nicht der Fall ist. Der Unterschied ist, dass Sie jetzt ziemlich überrascht wären, wenn sich herausstellen würde, dass diese Münze eine gewisse Voreingenommenheit aufweist.
Wie können wir Ihre frühere und spätere Meinung darstellen, insbesondere in Bezug auf die Wahrscheinlichkeit, dass die Münze Köpfe zeigt (die wir mit bezeichnen )? Unter Frequentisten ist Ihre vorherige Annahme - Ihre Nullhypothese -, dass θ = 0,5 ist . Nachdem Sie das Experiment ausgeführt haben, können Sie die Null nicht ablehnen, und fahren Sie mit der Annahme fort, dass die Münze wahrscheinlich fair ist. Aber wie können wir die Veränderung in Ihrem Vertrauen, dass die Münze fair ist, zusammenfassen? Nach dem Experiment sind Sie in der Position, dass Sie wetten würden, dass die Münze fair ist, aber vor dem Experiment wären Sie unruhig gewesen.θ θ = 0,5
Wie führen wir Berechnungen durch?
Wir beginnen mit PDFs und enden mit PDFs. Wenn Sie eine Punktschätzung melden müssen, können Sie Statistiken wie den Mittelwert, den Median oder den Modus Ihrer posterioren Verteilung berechnen (abhängig von Ihrer Verlustfunktion, auf die ich jetzt nicht näher eingehen werde. Bleiben wir einfach beim Mittelwert). Wenn Sie eine geschlossene Lösung für Ihr PDF haben, ist es wahrscheinlich trivial, diese Werte zu bestimmen. Wenn der hintere Teil kompliziert ist, können Sie Verfahren wie MCMC verwenden, um aus dem hinteren Teil eine Stichprobe zu erstellen und Statistiken aus der von Ihnen gezogenen Stichprobe abzuleiten.
In dem Beispiel, in dem Sie eine Beta-Priorität und eine Binomialwahrscheinlichkeit haben, reduziert sich die Berechnung des Seitenzahns auf eine sehr saubere Berechnung. Gegeben:
Dann reduziert sich der posterior auf:
Dies geschieht immer dann, wenn Sie eine Betaversion vor und eine Binomialwahrscheinlichkeit haben, und der Grund dafür sollte in den von DJE bereitgestellten Berechnungen ersichtlich sein . Wenn ein bestimmtes Prior-Likelihood-Modell immer einen Posterior liefert, der die gleiche Art von Verteilung wie der Prior aufweist, wird die Beziehung zwischen den für den Prior verwendeten Verteilungstypen und der Wahrscheinlichkeit als Konjugieren bezeichnet . Es gibt viele Verteilungspaare mit konjugierten Beziehungen, und die Konjugation wird sehr häufig von Bayesianern genutzt, um Berechnungen zu vereinfachen. Angesichts einer bestimmten Wahrscheinlichkeit können Sie Ihr Leben erheblich vereinfachen, indem Sie ein Konjugat auswählen (sofern eines vorhanden ist und Sie Ihre Wahl des Priorats rechtfertigen können).
Bei der gemeinsamen Parametrisierung der Normalverteilung bezeichnen die beiden Parameter den Mittelwert und die Standardabweichung der Verteilung. Aber so parametrisieren wir die Normalverteilung. Andere Wahrscheinlichkeitsverteilungen werden sehr unterschiedlich parametrisiert.
Wie Sie deutlich sehen können, sind der Mittelwert und die Varianz kein Teil der Parametrisierung dieser Verteilung, sondern es handelt sich um geschlossene Lösungen, die einfache Funktionen der Eingabeparameter sind.
quelle
Wenn Sie auf der Suche nach einer sanfteren Herangehensweise sind, kann ich das Buch von Kruschke wärmstens empfehlen, in dem R zur Erläuterung der Kernkonzepte verwendet wird. Es ist ein sehr praktischer und praktischer Ansatz zum Erlernen der Bayes'schen Statistik und auf seiner Website finden Sie alle verwendeten Codes.
Jemand empfahl auch den Text von Cam.Davidson.Pilon mir, noch nicht an sie aussehen , aber es finden sich hier .
quelle
Die Beta-Prior mit einer Binomialwahrscheinlichkeit (feste Anzahl von Versuchen mit binären Ergebnissen und festen Erfolgs- / Misserfolgswahrscheinlichkeiten) hat die Eigenschaft der Konjugation, dass der Posterior (das Produkt der Prior und die Wahrscheinlichkeit) in geschlossener Form geschrieben werden kann:
Dieser Ausdruck in geschlossener Form ist praktisch, aber keinesfalls notwendig. Das Multiplizieren der Wahrscheinlichkeitsdichten kann auf dieselbe Weise erfolgen wie das Multiplizieren anderer mathematischer Ausdrücke. Die Schwierigkeiten treten auf, da viele Produkte mit Dichten nicht so einfach umgeschrieben werden können wie die Beta-Prioritäts- / Binomialwahrscheinlichkeit. Glücklicherweise ist dies der Punkt, an dem Computer die Lücke schließen.
quelle