Der springende Punkt von AIC oder einem anderen Informationskriterium ist, dass weniger besser ist. Wenn ich also zwei Modelle M1 habe: y = a0 + XA + e und M2: y = b0 + ZB + u, und wenn der AIC des ersten (A1) kleiner ist als der des zweiten (A2), dann hat M1 eine bessere Anpassung aus informationstheoretischer Sicht. Aber gibt es einen Cutoff-Benchmark für den Unterschied A1-A2? Wie viel weniger ist eigentlich weniger? Mit anderen Worten, gibt es einen anderen Test für (A1-A2) als nur Augapfel?
Edit: Peter / Dmitrij ... Danke für die Antwort. Tatsächlich ist dies ein Fall, in dem meine Sachkenntnis mit meiner statistischen Sachkenntnis in Konflikt steht. Im Wesentlichen besteht das Problem NICHT in der Wahl zwischen zwei Modellen, sondern in der Überprüfung, ob zwei Variablen, von denen ich weiß, dass sie weitgehend äquivalent sind, äquivalente Informationsmengen hinzufügen (tatsächlich eine Variable im ersten Modell und ein Vektor im zweiten. Denken Sie an den Fall von eine Reihe von Variablen im Vergleich zu einem Index von ihnen.). Wie Dmitrij betonte, scheint der Cox-Test die beste Wahl zu sein. Aber gibt es eine Möglichkeit, den Unterschied zwischen den Informationsinhalten der beiden Modelle tatsächlich zu testen?
quelle
Antworten:
Ist die Frage der Neugier, dh Sie sind mit meiner Antwort hier nicht zufrieden ? Wenn nicht...
Die weitere Untersuchung dieser kniffligen Frage ergab, dass es eine häufig verwendete Faustregel gibt, die besagt, dass zwei Modelle nicht durch das Kriterium unterscheiden sind, wenn die Differenz | A I C 1 - A I C 2 | < 2 . Das selbe, das Sie tatsächlich in Wikipedia's Artikel über A I C lesen werden (beachten Sie, dass der Link anklickbar ist!). Nur für diejenigen, die nicht auf die Links klicken:AIC |AIC1−AIC2|<2 AIC
Eine nette Erklärung und nützliche Vorschläge, meiner Meinung nach. Nur keine Angst davor zu lesen, was anklickbar ist!
In Außerdem , beachten Sie nochmals, ist weniger bevorzugt , für große Datenmengen. Zusätzlich zu B I C kann Sie nützlich Bias-korrigierte Version anzuwenden A I C Kriterium A I C C (Sie können so Code oder verwenden Sie die Formel A I C C = A I C + 2 p ( p + 1 )AIC BIC AIC AICc AICc=AIC+2p(p+1)n−p−1 p
R
, wobeipdie Anzahl der geschätzten Parameter ist). Die Faustregel ist jedoch dieselbe.quelle
Burnham, K. P., and Anderson, D.R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
und die Wiki-Seite vor der Überarbeitung ist daIch denke, dies könnte ein Versuch sein, das zu bekommen, was Sie nicht wirklich wollen.
Modellauswahl ist keine Wissenschaft. Außer in seltenen Fällen gibt es kein perfektes oder gar ein "wahres" Modell. Es gibt selten ein "bestes" Modell. Diskussionen von AIC vs. AICc vs. BIC vs. SBC vs. Ich denke, die Idee ist, ein paar gute Modelle zu bekommen. Sie wählen dann aus, basierend auf einer Kombination aus fundiertem Fachwissen und statistischen Ideen. Wenn Sie keine fundierte Fachkenntnis haben (selten; viel seltener als die meisten Leute annehmen), wählen Sie den niedrigsten AIC (oder AICc oder was auch immer). In der Regel verfügen Sie jedoch über ein gewisses Fachwissen. Warum untersuchen Sie diese speziellen Variablen?
quelle