Ich habe Daten korreliert und verwende ein logistisches Regressionsmischeffektmodell, um den individuellen (bedingten) Effekt für einen interessierenden Prädiktor abzuschätzen. Ich weiß, dass bei Standard-Marginalmodellen die Rückschlüsse auf Modellparameter unter Verwendung des Wald-Tests für die Wahrscheinlichkeitsrate und die Score-Tests konsistent sind. Sie sind normalerweise ungefähr gleich. Da der Wald einfach zu berechnen und in R-Ausgabe verfügbar ist, verwende ich diese 99% der Zeit.
Bei einem Modell mit gemischten Effekten war ich jedoch fasziniert, einen großen Unterschied zwischen dem Wald-Test für die festen Effekte, wie sie in der Modellausgabe in R angegeben sind, und einem "von Hand" -Likelihood-Ratio-Test zu sehen, der Folgendes beinhaltet tatsächlich passend zum reduzierten Modell. Intuitiv kann ich sehen, warum dies einen großen Unterschied machen kann, da im reduzierten Modell die Varianz des Zufallseffekts neu geschätzt wird und die Wahrscheinlichkeit erheblich beeinflussen kann.
Kann mir jemand erklären
- Wie werden die Wald-Teststatistiken in R für feste Effekte berechnet?
- Was ist die Informationsmatrix für die geschätzten Modellparameter in einem Modell mit gemischten Effekten? (Und ist das gleiche MX, aus dem die Wald-Teststatistik berechnet wird?)
- Was sind die Unterschiede in der Interpretation zwischen den Ergebnissen der beiden Tests in den von mir beschriebenen Fällen? Welche sind generell motiviert und werden in der Literatur zur Schlussfolgerung herangezogen?
quelle
Antworten:
Die traditionelle Wald-Statistik zum Testen der Hypothese H0 Lt = l für gegebenes L, rxp und l, rx 1 ist gegeben durch W = (Lt - l) '[L (X'H-1 X) -1 L'] -1 (Lt - l) und asymptotisch hat diese Statistik eine Chi-Quadrat-Verteilung auf r Freiheitsgrade. Hierbei handelt es sich um marginale Tests, sodass für alle anderen Terme im festen Teil des Modells eine Anpassung erfolgt. R ist Open Source
quelle