Die Software, die ich derzeit zum Erstellen eines Modells verwende, vergleicht ein "aktuelles Lauf" -Modell mit einem "Referenzmodell" und meldet (falls zutreffend) sowohl einen Chi-Quadrat-p-Wert basierend auf Likelihood-Ratio-Tests als auch AIC-Werte für jedes Modell. Ich weiß, dass ein Vorteil von AIC gegenüber Likelihood-Ratio-Tests darin besteht, dass AIC mit nicht verschachtelten Modellen verglichen werden kann. Mir ist jedoch kein Grund bekannt, warum AIC nicht mit verschachtelten Modellen verglichen werden konnte oder sollte. Wenn ich in meinem Modell verschachtelte Modelle für die Variablenauswahl vergleiche, finde ich mehrere Fälle, in denen der Likelihood-Ratio-Test und der AIC-Vergleich entgegengesetzte Schlussfolgerungen nahe legen.
Da beide auf Wahrscheinlichkeitsberechnungen basieren, habe ich Schwierigkeiten, diese Ergebnisse zu interpretieren. In der Dokumentation meiner Software heißt es jedoch (ohne es zu erklären):
"Wenn zwei Modelle verschachtelt sind (dh eines ist eine Teilmenge des anderen), ist der üblichere Chi-Quadrat-Test am besten geeignet. Wenn die Modelle nicht verschachtelt sind, kann der AIC verwendet werden ..."
Kann jemand näher darauf eingehen und / oder erklären, warum AIC nicht so hilfreich ist wie Likelihood-Ratio-Tests an verschachtelten Modellen?
Antworten:
AIC und Likelihood Ratio Test (LRT) haben unterschiedliche Zwecke.
Sie würden AIC verwenden, wenn Ihr Ziel die Modellauswahl für die Prognose ist. Sie würden den Likelihood-Ratio-Test für Signifikanztests verwenden. Unterschiedliche Ziele erfordern unterschiedliche Werkzeuge.
quelle