Posterior Predictive Checks sind mit einfachen Worten "das Simulieren replizierter Daten unter dem angepassten Modell und das anschließende Vergleichen dieser mit den beobachteten Daten" ( Gelman und Hill, 2007, S. 158 ). Sie verwenden also posterior predictive, um "nach systematischen Diskrepanzen zwischen realen und simulierten Daten zu suchen" ( Gelman et al. 2004, S. 169 ).
Das Argument für "zweimaliges Verwenden der Daten" besteht darin, dass Sie Ihre Daten zur Schätzung des Modells und dann zur Überprüfung der Übereinstimmung des Modells mit den Daten verwenden. Im Allgemeinen ist dies jedoch eine schlechte Idee und es ist besser, Ihr Modell anhand externer Daten zu validieren , das wurde nicht zur Schätzung herangezogen.
Posterior Predictive Checks sind hilfreich bei der Beurteilung, ob Ihr Modell "gültige" Vorhersagen über die Realität liefert - ob sie zu den beobachteten Daten passen oder nicht. Es ist eine hilfreiche Phase des Modellbaus und der Überprüfung. Es gibt Ihnen keine definitive Antwort darauf, ob Ihr Modell "in Ordnung" oder "besser" ist als andere Modelle. Es kann Ihnen jedoch dabei helfen, zu überprüfen, ob Ihr Modell sinnvoll ist.
Dies ist in LaplacesDemon Vignette Bayesian Inference gut beschrieben :
yrepy
Posterior Predictive Checks (über die Predictive Distribution) beinhalten eine doppelte Verwendung der Daten, was gegen das Likelihood-Prinzip verstößt. Es wurden jedoch Argumente für posteriore prädiktive Überprüfungen vorgebracht, vorausgesetzt, die Verwendung beschränkt sich auf Diskrepanzmaße bei der Untersuchung der Modelladäquanz und nicht auf Modellvergleich und Inferenz (Meng 1994).
yrepyyyrep