Sagen wir, wir müssen GLMMs
mod1 <- glmer(y ~ x + A + (1|g), data = dat)
mod2 <- glmer(y ~ x + B + (1|g), data = dat)
Diese Modelle sind nicht im üblichen Sinne verschachtelt:
a <- glmer(y ~ x + A + (1|g), data = dat)
b <- glmer(y ~ x + A + B + (1|g), data = dat)
Also können wir nicht so machen, anova(mod1, mod2)
wie wir es wollten anova(a ,b)
.
Können wir mit AIC sagen, welches das beste Modell ist?
quelle
Als Referenz ein Gegenargument: Brian Ripley erklärt in "Auswahl unter großen Klassen von Modellen", S. 6-7
Die relevante Passage (auch S. 204 eines anderen Nachdrucks von Akaike) beginnt meiner Meinung nach mit dem Satz "Das Problem der statistischen Modellidentifikation wird oft als das Problem der Auswahl vonf( x |kθ ) ... ") ist nicht ganz vorhanden hier , ich bin für eine PDF des Papiers suchen , damit ich die Passage hier zitieren ...
Ripley, BD 2004. „Auswahl unter großen Klassen von Modellen“. In Methods and Models in Statistics , herausgegeben von N. Adams, M. Crowder, D. J. Hand und D. Stephens, 155–70. London, England: Imperial College Press.
Akaike, H. (1973) Informationstheorie und eine Erweiterung des Maximum-Likelihood-Prinzips. Im zweiten internationalen Symposium zur Informationstheorie (Hrsg. BN Petrov und F. Cáski), S. 267–281, Budapest. Akademiai Kaidó. Neuauflage in Breakthroughs in Statistics , Hrsg. Kotz, S. & Johnson, NL (1992), Band I, S. 599–624. New York: Springer.
quelle
Anscheinend hielt Akaike AIC für ein nützliches Tool zum Vergleichen von nicht verschachtelten Modellen.
(Akaike 1985, S. 399)
Akaike, Hirotugu. "Vorhersage und Entropie." Ausgewählte Arbeiten von Hirotugu Akaike. Springer, New York, NY, 1985. 387-410.
quelle