Ich betrachte einen großen (aber begrenzten) Raum von Modellen unterschiedlicher Komplexität, die ich mit RJMCMC erforsche . Das Voranstellen des Parametervektors für jedes Modell ist ziemlich informativ.
In welchen Fällen (wenn überhaupt) sollte ich mir Sorgen machen, dass das Jeffreys-Lindley-Paradoxon einfachere Modelle bevorzugt, wenn eines der komplexeren Modelle besser geeignet wäre?
Gibt es einfache Beispiele, die die Probleme des Paradoxons bei der Wahl des Bayes'schen Modells aufzeigen?
Ich habe einige Artikel gelesen, nämlich Xi'ans Blog und Andrew Gelmans Blog , aber ich verstehe das Problem immer noch nicht ganz.
Antworten:
Entschuldigen Sie die Unklarheit in meinem Blog !
Hinweis: In dieser anderen Antwort auf Cross Validated habe ich einige Hintergrundinformationen zur Auswahl des Bayes'schen Modells und zum Jeffreys-Lindley-Paradoxon gegeben .
Das Jeffreys-Lindley paradox ist verwandt mit Bayes - Modell Wahl, dass die marginale Likelihood wird bedeutungsloswenn π a σ -finite Maßnahme (dh ein Maß mit unendlicher Masse) eher als ein Wahrscheinlichkeitsmaß. Der Grund für diese Schwierigkeit istdass die unendliche Masse macht & pgr; und c π ununterscheidbar für jede positive Konstante c . Insbesondere der Bayes-Faktor kann nicht verwendet werden und sollte nicht verwendet werden, wenn ein Modell mit einem "flachen" Vorgänger ausgestattet ist.
Das ursprüngliche Jeffreys-Lindley-Paradoxon verwendet die Normalverteilung als Beispiel. Beim Vergleich der Modelle und x ~ N ( θ , 1 ) der Faktor Bayes ist B 12 = exp { - N ( ˉ x n ) 2 / 2 }
Wenn Ihre Prioritäten informativ (und daher korrekt) sind, gibt es keinen Grund für das Jeffreys-Lindley-Paradoxon. Bei einer ausreichenden Anzahl von Beobachtungen wählt der Bayes-Faktor das Modell, das die Daten generiert hat, konsistent aus. (Oder genauer gesagt, das Modell innerhalb der Modellsammlung, das für die Modellauswahl in Betracht gezogen wird und dem "wahren" Modell, das die Daten generiert hat, am nächsten kommt.)
quelle