Meine eigentlichen Fragen sind in den letzten beiden Absätzen, aber um sie zu motivieren:
Wenn ich versuche, den Mittelwert einer Zufallsvariablen zu schätzen, die einer Normalverteilung mit einer bekannten Varianz folgt, habe ich gelesen, dass das Setzen einer Uniform vor dem Mittelwert zu einer posterioren Verteilung führt, die proportional zur Wahrscheinlichkeitsfunktion ist. In diesen Situationen überlappt sich das glaubwürdige Bayes'sche Intervall perfekt mit dem Konfidenzintervall des Frequentisten, und das Bayes'sche Maximum a posteriori-Schätzwert entspricht der Schätzung des Frequentisten-Maximum-Likelihood.
In einer einfachen linearen Regressionseinstellung
Das Setzen eines einheitlichen Prior auf und eines inversen Gammas auf mit kleinen Parameterwerten führt zu einem posterioren , der dem Frequentist sehr ähnlich ist. und ein glaubwürdiges Intervall für die hintere Verteilung von , das dem Konfidenzintervall um die maximale Wahrscheinlichkeitsschätzung sehr ähnlich ist. Sie werden nicht exakt gleich sein, da der Prior auf einen geringen Einfluss ausübt und wenn die posteriore Schätzung über eine MCMC-Simulation durchgeführt wird, die eine weitere Quelle für Diskrepanzen einführt, aber das Bayes'sche glaubwürdige Intervall um denund das häufig auftretende Konfidenzintervall um wird ziemlich nahe beieinander liegen, und natürlich sollten sie mit zunehmender Stichprobengröße konvergieren, wenn der Einfluss der Wahrscheinlichkeit zunimmt, den des Vorgängers zu dominieren.
Aber ich habe gelesen, dass es auch Regressionssituationen gibt, in denen diese nahezu Äquivalenzen nicht zutreffen. Zum Beispiel hierarchische Regressionen mit zufälligen Effekten oder logistische Regression - dies sind Situationen, in denen es meines Wissens keine "guten" Ziel- oder Referenzprioren gibt.
Meine allgemeine Frage lautet also: Angenommen, ich möchte aufund dass ich keine vorherigen Informationen habe, die ich einbeziehen möchte, warum kann ich in diesen Situationen nicht mit einer häufigen Maximum-Likelihood-Schätzung fortfahren und die resultierenden Koeffizientenschätzungen und Standardfehler als Bayes'sche MAP-Schätzungen und Standardabweichungen interpretieren und diese implizit behandeln "hintere" Schätzungen, die sich aus einem Prior ergeben, der "nicht informativ" gewesen sein muss, ohne zu versuchen, die explizite Formulierung des Prior zu finden, die zu einem solchen hinteren führen würde? Wann ist es im Bereich der Regressionsanalyse im Allgemeinen in Ordnung, in diese Richtung vorzugehen (die Wahrscheinlichkeit wie einen Seitenzahn zu behandeln) und wann ist es nicht in Ordnung? Was ist mit frequentistischen Methoden, die nicht auf der Wahrscheinlichkeit basieren, wie Quasi-Wahrscheinlichkeitsmethoden?
Hängen die Antworten davon ab, ob mein Inferenzziel Koeffizientenpunktschätzungen sind oder ob die Wahrscheinlichkeit, dass ein Koeffizient innerhalb eines bestimmten Bereichs liegt, oder von Mengen der Vorhersageverteilung?
quelle