Was ist ein "Unit Information Prior"?

11

Ich habe Wagenmakers (2007) gelesen. Eine praktische Lösung für das allgegenwärtige Problem der p-Werte . Ich bin fasziniert von der Umwandlung von BIC-Werten in Bayes-Faktoren und -Wahrscheinlichkeiten. Bisher habe ich jedoch keine guten Kenntnisse darüber, was genau eine Einheiteninformation zuvor ist. Ich wäre dankbar für eine Erklärung mit Bildern oder den R-Code zum Erzeugen von Bildern dieses bestimmten Vorgängers.

Matt Albrecht
quelle

Antworten:

6

Der Einheitsinformationsprior ist ein datenabhängiger Prior (typischerweise multivariates Normal) mit einem Mittelwert bei der MLE und einer Genauigkeit, die der Information entspricht, die durch eine Beobachtung bereitgestellt wird. Ausführliche Informationen finden Sie beispielsweise in diesem technischen Bericht oder in diesem Dokument. Die Idee der UIP ist es, einen Prior zu geben, der "die Daten für sich selbst sprechen lässt"; In den meisten Fällen hat das Hinzufügen von Prior, das Ihnen sagt, dass eine Beobachtung zentriert ist, auf die die anderen Daten zeigen, nur geringe Auswirkungen auf die nachfolgende Analyse. Eine seiner Hauptanwendungen besteht darin, zu zeigen, dass die Verwendung von BIC in großen Stichproben der Verwendung von Bayes-Faktoren mit UIPs in ihren Parametern entspricht.

Es ist wahrscheinlich auch erwähnenswert, dass viele Statistiker (einschließlich Bayesianer) mit der Verwendung von Bayes-Faktoren und / oder BIC bei vielen angewandten Problemen nicht zufrieden sind.

Gast
quelle
2
BIC ist kein Bayes'sches Werkzeug, da es die Auswirkungen des Prior beseitigt. Als Bayesianer bin ich mit Bayes-Faktoren vertraut, aber nicht mit AIC, BIC oder DIC!
Xi'an
Nun, ich habe es nie gesagt! Als Bayesianer (der gelesen hat und Bayesian Choice schätzt) würde ich mich über jede dieser Methoden freuen, wenn sie eine entscheidungstheoretische Rechtfertigung für einen Nutzen hätten, der genau das widerspiegelt, was ich mit der Analyse erreichen wollte.
Gast
Danke für die Antworten. Ich habe eine Follow - up - Frage gestellt hier
Matt Albrecht
2

Die vorherigen Einheiteninformationen basieren auf der folgenden Interpretation der Konjugation:

Installieren

  • Xn=(X1,,Xn)XiN(μ,σ2)μσ2X¯N(μ,σ2n)
  • μμN(a,σ2)
  • μμN(M,v)M=1n+1(a+nx¯)v=σ2n+1

Deutung

X¯=x¯μx¯aσ2n+1n+1nverglich die Stichprobenverteilung des Stichprobenmittelwerts. Beachten Sie, dass eine Stichprobenverteilung nicht mit einer posterioren Verteilung identisch ist. Trotzdem sieht die hintere Art so aus, dass die Daten für sich selbst sprechen. Daher mit der Einheit Informationen bekommt man eine posteriore , die hauptsächlich auf den Daten konzentriert, und geschrumpfte Richtung der Vorinformationen als Einmal Strafe.x¯a

Kass und Wasserman zeigten außerdem, dass die Modellauswahl gegen mit dem oben angegebenen Prior mit dem Schwartz-Kriterium gut angenähert werden kann (im Grunde genommen) BIC / 2) wenn groß ist.M0:μ=aM1:μRn

Einige Anmerkungen:

  • Die Tatsache, dass BIC einen Bayes-Faktor basierend auf einer vorherigen Einheiteninformation approximiert, bedeutet nicht, dass wir eine Einheiteninformation verwenden sollten, bevor wir einen Bayes-Faktor konstruieren. Jeffreys (1961) verwendet standardmäßig einen Cauchy vor der Effektgröße, siehe auch Ly et al. (im Druck) für eine Erklärung zu Jeffreys Wahl.
  • Kass und Wasserman zeigten, dass der durch eine Konstante geteilte BIC (der das Cauchy mit einer Normalverteilung in Beziehung setzt) ​​immer noch als Annäherung an den Bayes-Faktor verwendet werden kann (diesmal basierend auf einem Cauchy-Prior anstelle eines normalen).

Verweise

  • Jeffreys, H. (1961). Wahrscheinlichkeitstheorie . Oxford University Press, Oxford, Großbritannien, 3. Auflage.
  • Kass, RE und Wasserman, L. (1995). "Ein Referenz-Bayes-Test für verschachtelte Hypothesen und seine Beziehung zum Schwarz-Kriterium", Journal of American Statistical Association , 90, 928-934
  • Ly, A., Verhagen, AJ & Wagenmakers, E.-J. (im Druck). Harold Jeffreys 'Standard-Bayes-Faktor-Hypothesentests: Erklärung, Erweiterung und Anwendung in der Psychologie. Zeitschrift für Mathematische Psychologie.
Alexander Ly
quelle