Ich analysiere Daten zu 300.000 Schülern in 175 Schulen mit einem logistischen linearen Mischeffektmodell (zufällige Abschnitte). Jeder Schüler kommt genau einmal vor und die Daten erstrecken sich über 6 Jahre.
Wie teile ich die Varianz zwischen der Schul- und der Schülerebene ähnlich wie beim VPC / ICC für kontinuierliche Ergebnisse ein? Ich habe diesen Artikel gesehen, der 4 Methoden vorschlägt, von denen A und B für mich interessant erscheinen, aber ich möchte wissen, welche Vor- / Nachteile es bei der Verwendung dieser beiden Methoden geben kann, und natürlich, ob es andere Möglichkeiten gibt es.
Wie kann ich die Restvarianz auf Schulebene von Jahr zu Jahr (oder einem anderen Zeitraum) vergleichen? Bisher habe ich dies getan , indem die Daten von Jahr zu teilen und das Modell gegen jedes Jahr der Daten ausgeführt wird, aber ich denke , das fehlerhaft ist , weil: i) es keinen offensichtlichen Grund, warum ich aufgeschlüsselt nach sein sollte , Jahr ; und ii) da die Schätzungen der festen Effekte für jedes Jahr unterschiedlich sind, ist ein Vergleich der zufälligen Effekte von Jahr zu Jahr möglicherweise nicht sinnvoll (dies ist nur meine Intuition, es wäre großartig, wenn jemand dies formeller erklären könnte, wenn es richtig ist).
HINWEIS: Ich habe diese Frage nach einer Diskussion in Meta mit Whuber und Macro neu geschrieben
quelle
Antworten:
Seiyij,xij der Antwort- bzw. Prädiktorvektor des Schülers i in der Schule j .
(1) Für binäre Daten denke ich, dass die Standardmethode für Varianzzerlegungen analog zu der für kontinuierliche Daten ist, die die Autoren in Ihrem Link als Methode D (ich werde die anderen Methoden unten kommentieren) bezeichnen - und die binären Daten als vorstellen sich aus einer zugrunde liegenden stetigen Variablen ergeben, die von einem linearen Modell bestimmt wird, und die Varianz auf dieser latenten Skala zerlegen. Der Grund dafür ist, dass logistische Modelle (und andere GLMs) natürlich auf diese Weise entstehen:
Um dies zu sehen, definieren Siey⋆ij so, dass es von einem linearen gemischten Modell gesteuert wird:
wobeiα,β Regressionskoeffizienten sind, ηj∼N(0,σ2) der Zufallseffekt auf Schulebene ist und εij der Restvarianzterm ist und eine logistische Standardverteilung aufweist . Nun lass
sei , einfach unter Verwendung der logistischen CDF, die wir habenpij=P(yij=1|xij,ηj)
Nun nehmen Sie die logit-Transformation beider Seiten vor
Das ist genau das logistische Mischeffektmodell. Das logistische Modell entspricht also dem oben angegebenen latenten Variablenmodell. Ein wichtiger Hinweis:
Nun, wenn Sie dieses Modell und dann die Menge verwenden
schätzt die klasseninterne Korrelation der underlying latent variables. Another important note:
Regarding the other methods mentioned in the paper you linked:
(A) Ich habe die Linearisierungsmethode noch nie gesehen, aber ein Nachteil, den ich sehen kann, ist, dass es keinen Hinweis auf den dadurch verursachten Approximationsfehler gibt. Wenn Sie das Modell (durch eine potenziell grobe Näherung) linearisieren möchten, warum sollten Sie dann nicht zunächst ein lineares Modell verwenden (z. B. Option (C) , auf die ich gleich zurückkommen werde)? Es wäre auch komplizierter zu präsentieren, da der IStGH davon abhängen würdexich j .
(B) Die Simulationsmethode ist für einen Statistiker intuitiv ansprechend, da sie eine geschätzte Varianzzerlegung auf der ursprünglichen Skala der Daten ergibt. Je nach Zielgruppe kann es jedoch (i) kompliziert sein, dies in Ihren "Methoden" zu beschreiben. Abschnitt und (ii) können einen Rezensenten ausschalten, der nach etwas "mehr Standard" suchte
(C) Es ist wahrscheinlich keine gute Idee, vorzugeben, dass die Daten kontinuierlich sind, obwohl sie keine schlechte Leistung erbringen, wenn die meisten Wahrscheinlichkeiten nicht zu nahe bei 0 oder 1 liegen also würde ich wegbleiben.
Nun endlich
(2) If the fixed effects are very different across years, then you're right to think that it could be difficult to compare the random effect variances across years, since they are potentially on different scales (this is related to the non-identifiability of scaling issue mentioned above).
If you want to keep the fixed effects over time (however, if you see them changing a lot over time, you may not want to do that) but look at the change in the random effect variance, you can explore this effect using some random slopes and dummy variables. For example, if you wanted to see if the ICCs were different in different years, you culd letIk=1 if the observation was made in year k and 0 otherwise and then model your linear predictor as
this will give you a different ICCs each year but the same fixed effects. It may be tempting to just use a random slope in time, making your linear predictor
but I don't recommend this, since that will only allow your associations to increase over time, not decrease.
quelle