Ich bin mit dieser Literatur nicht so vertraut. Bitte verzeihen Sie mir, wenn dies eine offensichtliche Frage ist.
Da AIC und BIC von der Maximierung der Wahrscheinlichkeit abhängen, können sie anscheinend nur verwendet werden, um relative Vergleiche zwischen einer Reihe von Modellen anzustellen, die versuchen, zu einem bestimmten Datensatz zu passen. Nach meinem Verständnis wäre es nicht sinnvoll, den AIC für Modell A für Datensatz 1 zu berechnen, den AIC für Modell B für Datensatz 2 zu berechnen und dann die beiden AIC-Werte zu vergleichen und dies zu beurteilen (zum Beispiel). Modell A passt besser zu Datensatz 1 als Modell B zu Datensatz 2. Oder ich irre mich, und das ist eine vernünftige Sache. Lass es mich wissen, bitte.
Meine Frage lautet: Gibt es eine Modellanpassungsstatistik, die für absolute statt nur für relative Vergleiche verwendet werden kann? Für lineare Modelle würde so etwas wie funktionieren; Es hat einen definierten Bereich und disziplinspezifische Vorstellungen darüber, was ein "guter" Wert ist. Ich suche etwas allgemeineres und dachte, ich könnte damit beginnen, die Experten hier anzupingen. Ich bin mir sicher, dass jemand schon einmal darüber nachgedacht hat, aber ich kenne nicht die richtigen Begriffe, um eine produktive Suche in Google Scholar durchzuführen.
Jede Hilfe wäre dankbar.
quelle
Antworten:
In Übereinstimmung mit dem, was Macro vorgeschlagen hat, denke ich, dass der Begriff, den Sie suchen, ein Leistungsmaß ist. Obwohl dies kein sicherer Weg ist, um die Vorhersagekraft zu beurteilen, ist es ein sehr nützlicher Weg, um die Anpassungsqualität verschiedener Modelle zu vergleichen.
Ein Beispielmaß wäre der mittlere durchschnittliche prozentuale Fehler, von dem jedoch leicht mehr gefunden werden können.
Angenommen, Sie verwenden SetA mit Modell A, um die Anzahl der Löcher in einer Straße zu beschreiben, und Sie verwenden SetB und Modell B, um die Anzahl der Personen in einem Land zu beschreiben. Dann können Sie natürlich nicht sagen, dass ein Modell besser ist als das andere, aber Sie können Sehen Sie zumindest, welches Modell eine genauere Beschreibung liefert.
quelle
Ich denke, es gibt einige neue Artikel, die genau untersuchen, wonach Sie suchen. Nakagawa und Schielzeth (2013) präsentieren eine R²-Statistik für Modelle mit gemischten Effekten namens "R2 GLMM", um das Ausmaß der ungeklärten Varianz in einem Modell zu definieren.
Bedingtes R²GLMM wird als Varianz interpretiert, die sowohl durch feste als auch durch zufällige Faktoren erklärt wird.
Das marginale R²GLMM repräsentiert die Varianz, die durch feste Faktoren erklärt wird.
Im Jahr 2014 aktualisierte Johnson die Gleichung, um Modelle mit zufälligen Steigungen zu berücksichtigen.
Glücklicherweise können Sie mit dem Paket "MuMIn" in R ( Barton, 2015 ) sowohl marginale als auch bedingte R²GLMM leicht berechnen .
quelle