Anzahl der Markov-Ketten-Monte-Carlo-Proben

10

Es gibt eine Menge Literatur über die Konvergenzdiagnostik der Markov-Kette Monte Carlo (MCMC), einschließlich der beliebtesten Gelman-Rubin-Diagnostik. Alle diese bewerten jedoch die Konvergenz der Markov-Kette und befassen sich damit mit der Frage des Einbrennens.

Wie soll ich nach dem Burn-In entscheiden, wie viele MCMC-Proben ausreichen, um meinen Schätzprozess fortzusetzen? Die meisten Papiere, die MCMC verwenden, erwähnen, dass sie die Markov-Kette für einige Iterationen ausgeführt haben, sagen aber nichts darüber, warum / wie sie diese Zahl gewählt haben, n .nn

Darüber hinaus kann eine gewünschte Stichprobengröße nicht die Antwort für alle Stichproben sein, da die Korrelation in der Markov-Kette von Problem zu Problem stark variiert. Gibt es also eine Regel, um die Anzahl der erforderlichen Proben herauszufinden?

Greenparker
quelle

Antworten:

5

Wie viele Proben (nach dem Einbrennen) Sie benötigen, hängt davon ab, was Sie mit diesen Proben versuchen und wie sich Ihre Kette mischt.

Typischerweise sind wir an posterioren Erwartungen (oder Quantilen) interessiert und approximieren diese Erwartungen durch Durchschnittswerte unserer posterioren Proben, dh wobeiθ(m)Proben von Ihrem MCMC sind. Nach dem Gesetz der großen Zahlen konvergiert die MCMC-Schätzung fast sicher gegen die gewünschte Erwartung.

E[h(θ)|y]1Mm=1Mh(θ(m))=EM
θ(m)

Um jedoch die Frage zu beantworten, wie viele Stichproben wir benötigen, um sicher zu sein, dass wir nahe genug an der gewünschten Erwartung sind, benötigen wir ein Ergebnis des zentralen Grenzwertsatzes (CLT), dh so etwas wie Mit dieser CLT könnten wir dann probabilitische Aussagen wie "Es besteht eine 95% ige Wahrscheinlichkeit, dassE[h(θ)|y]zwischenEM±1,96vh liegt" machen. Die beiden Probleme hier sind

EME[h(θ)|y]MdN(0,vh2)
E[h(θ)|y]EM±1.96vh
  1. Gilt das CLT?
  2. Wie können wir schätzen , .vh2

Wir haben einige Ergebnisse darüber, wann die CLT angewendet wird, z. B. diskrete Zustandsketten, reversible Ketten, geometrisch ergodische Ketten. Siehe Robert und Casella (2. Ausgabe), Abschnitt 6.7.2 für einige Ergebnisse in dieser Richtung. Leider hat die überwiegende Mehrheit der Markov-Ketten, die es gibt, keinen Beweis dafür, dass CLT existiert.

Wenn eine CLT vorhanden ist, müssen wir die Varianz in der CLT noch schätzen. Eine Möglichkeit, diese Varianz abzuschätzen, besteht darin, die Kette in Blöcke aufzuteilen , siehe Gong und Flegal und die darin enthaltenen Referenzen. Die Methode wurde im R-Paket mcmcsemit den Funktionen implementiert mcseund mcse.qum die Varianz für Erwartungen und Quantile abzuschätzen.

jaradniemi
quelle
Das klingt vernünftig und ich kenne die Literatur hier. Wie oft wird dieses Argument tatsächlich in der Praxis verwendet?
Greenparker
3

John Kruschke von Doing Bayesian Data Analysis empfiehlt, MCMC-Ketten für interessierende Parameter so lange laufen zu lassen, bis ihre effektive Probengröße mindestens 10.000 beträgt. Obwohl keine Simulationen präsentiert werden, glaube ich, dass seine Begründung darin besteht, dass ESS> 10.000 numerisch stabile Schätzungen gewährleistet. Ich habe jedoch gesehen, dass Andrew Gelman und andere Stan-Entwickler weniger empfehlen (z. B. 2000 - 3000 sind in Ordnung; leider kein genauer Link, aber siehe Diskussionen in der Stan Google-Benutzergruppe). Darüber hinaus kann es bei komplexen Modellen schwierig sein, Ketten zu laufen, die lang genug für ein ESS> 10.000 sind!

user3237820
quelle
Vielen Dank. Können Sie mir schicken, wohin er das in seinem Material sagt? Das Durchblättern der Webseite wird lange dauern. In meiner Antwort [hier] geht es auch darum, die Untergrenze für ESS zu bestimmen.
Greenparker
Entschuldigung, mir wurde klar, dass ich den Link nicht gesetzt habe. Hier ist es.
Greenparker
1
Entschuldigung, ich hätte genauer sein sollen. Kruschke erwähnt es kurz in seinem Blog-Beitrag " donebayesiandataanalysis.blogspot.co.uk" und in Kapitel 7 seines Buches "Markov Chain Monte Carlo", Seite 184 der 2. Ausgabe: books.google.co.uk/… .
user3237820
1

Dies ist in der Tat einer der großen Nachteile von MCMC-Simulationen, da es keine allgemeine und a priori Schätzung der Anzahl der Proben gibt. Ich denke, eine gute Literatur hier ist "Einige Dinge, die wir gelernt haben (über MCMC)" von Persi Diaconis, die sich mit vielen Feinheiten von MCMC-Simulationen befasst, die möglicherweise darauf hinweisen, dass es keine einfache Antwort auf diese Frage gibt.

Um gute Schätzungen darüber zu erhalten, wie lange die Kette laufen soll, ist im Allgemeinen ein gutes Verständnis der Mischzeit der Markov-Kette erforderlich , die stark von den Eigenschaften des zugrunde liegenden Diagramms abhängt. Es gibt viele "Burn-in-free" -Methoden, um die Mischzeit von oben zu begrenzen. Allen diesen Methoden ist jedoch gemeinsam, dass sie ein tieferes Verständnis der zugrunde liegenden Markov-Kette erfordern und die beteiligten Konstanten normalerweise schwer zu berechnen sind . Siehe zum Beispiel "Leitfähigkeit und schnelles Mischen von Markov-Ketten" von King, "Pfadkopplung: eine Technik zum Nachweis des schnellen Mischens in Markov-Ketten" von Bubley et al. Oder "Nash-Ungleichungen für endliche Markov-Ketten" von Diaconis et al.

Tobias Windisch
quelle
Einverstanden. In der Praxis wird die Mischzeit von Probenehmern jedoch nicht immer so detailliert untersucht, um diese Frage zu beantworten. Darüber hinaus erfordert das Studium der Mischzeit einen beträchtlichen Hintergrund in der Markov-Kettentheorie, mit dem die meisten Endbenutzer von MCMC möglicherweise nicht vertraut sind. Es gibt keine Heuristiken da draußen (wie die Diagnose)?
Greenparker
Ich kann mir nur vorstellen, den zweitgrößten Eigenwert der Übergangsmatrix numerisch zu schätzen und daraus eine Grenze für die Mischzeit abzuleiten. Sie können sich die Doktorarbeit von Kranthi Kumar Gade ansehen.
Tobias Windisch
Was ist, wenn ich mit einer allgemeinen Zustandsraum-Markov-Kette arbeite, nicht mit einem endlichen Zustandsraum? Ich vermute, das ist dann nicht möglich, werde es mir aber ansehen.
Greenparker
Du hast recht. Seine Methode funktioniert nur für endliche Zustandsräume und zeitdiskrete Markov-Ketten.
Tobias Windisch