Bei einer vorhergesagten Variablen (P), einem Zufallseffekt (R) und einem festen Effekt (F) könnte man zwei * Modelle mit gemischten Effekten ( lme4- Syntax) anpassen :
m1 = lmer( P ~ (1|R) + F )
m2 = lmer( P ~ (1+F|R) + F)
Soweit ich weiß, ist das zweite Modell dasjenige, bei dem der festgelegte Effekt über die Ebenen des Zufallseffekts hinweg variiert.
In meiner Forschung verwende ich normalerweise Modelle mit gemischten Effekten, um Daten aus Experimenten zu analysieren, die an mehreren menschlichen Teilnehmern durchgeführt wurden. Ich modelliere Teilnehmer als Zufallseffekt und experimentelle Manipulationen als Fixeffekte. Ich denke, es ist von vornherein sinnvoll, das Ausmaß, in dem die festgelegten Effekte die Leistung des Experiments beeinflussen, je nach Teilnehmer variieren zu lassen. Es fällt mir jedoch schwer, mir Umstände vorzustellen, unter denen ich nicht zulassen sollte, dass die festgelegten Effekte je nach Ebene eines zufälligen Effekts variieren. Meine Frage lautet daher:
Wann sollte man nicht zulassen, dass ein fester Effekt über die Ebenen eines zufälligen Effekts hinweg variiert?
quelle
Antworten:
Ich bin kein Experte für Mixed-Effect-Modellierung, aber die Frage ist viel einfacher zu beantworten, wenn sie im Kontext der hierarchischen Regressionsmodellierung umformuliert wird. Unsere Beobachtungen haben also zwei Indizes und F i j, wobei der Index i die Klasse und j die Mitglieder der Klasse darstellt. Die hierarchischen Modelle lassen uns die lineare Regression anpassen, bei der die Koeffizienten über Klassen variieren:Pij Fij i j
Dies ist unsere Regression der ersten Ebene. Die Regression der zweiten Ebene wird mit den ersten Regressionskoeffizienten durchgeführt:
Wenn wir dies in der Regression der ersten Ebene einsetzen, erhalten wir
Hier sind feste Effekte und u zufällige Effekte. Gemischte Modellschätzungen γ und Varianzen von u .γ u γ u
Das Modell, das ich aufgeschrieben habe, entspricht der
lmer
SyntaxWenn wir nun ohne den zufälligen Term setzen, erhalten wirβ1i=γ01
was der
lmer
Syntax entsprichtEs stellt sich also die Frage, wann wir Fehlerbegriffe von der Regression der zweiten Ebene ausschließen können. Die kanonische Antwort lautet: Wenn wir sicher sind, dass die Regressoren (hier haben wir keine, aber wir können sie einbeziehen, sie sind natürlich innerhalb von Klassen konstant) in der Regression der zweiten Ebene die Varianz der Koeffizienten über Klassen hinweg vollständig erklären.
Wenn also in diesem speziellen Fall der Koeffizient von nicht variiert oder alternativ die Varianz von u 1 i sehr klein ist, sollten wir uns vorstellen, dass wir mit dem ersten Modell wahrscheinlich besser zurechtkommen.Fij u1i
Hinweis . Ich habe nur eine algebraische Erklärung gegeben, denke aber, dass es viel einfacher ist, sich ein bestimmtes Anwendungsbeispiel vorzustellen.
quelle
Sie können sich einen "festen Effekt" als "zufälligen Effekt" mit einer Varianzkomponente von Null vorstellen.
Eine einfache Antwort auf die Frage, warum Sie feste Effekte nicht variieren lassen würden, ist ein unzureichender Beweis für eine "ausreichend große" Varianzkomponente. Der Nachweis sollte sowohl aus den Vorinformationen als auch aus den Daten stammen. Dies steht im Einklang mit dem grundlegenden "Occam-Rasiermesser" -Prinzip: Machen Sie Ihr Modell nicht komplexer, als es sein muss.
Ich neige dazu, über lineare gemischte Modelle wie folgt zu denken, und schreibe eine multiple Regression wie folgt aus:
Vergleichen Sie dies mit der OLS - Regression (die hatZ= 0 ) und wir bekommen:
Der "zufällige" Teil des Modells kann daher als eine Möglichkeit angesehen werden, vorherige Informationen über die Korrelationsstruktur der Rausch- oder Fehlerkomponente im Modell anzugeben . OLS geht grundsätzlich davon aus, dass ein Fehler aus dem festen Teil des Modells in einem Fall für die Vorhersage eines anderen Fehlers unbrauchbar ist, selbst wenn wir den festen Teil des Modells mit Sicherheit kannten. Das Hinzufügen eines zufälligen Effekts bedeutet im Grunde genommen, dass Sie der Meinung sind, dass einige Fehler bei der Vorhersage anderer Fehler hilfreich sind.
quelle
Dies ist eine ziemlich alte Frage mit einigen sehr guten Antworten, aber ich denke, sie kann von einer neuen Antwort profitieren, um eine pragmatischere Perspektive anzusprechen.
Ich werde nicht auf die Probleme eingehen, die bereits in den anderen Antworten beschrieben wurden, sondern auf das mittlerweile berühmte, obwohl ich eher "berüchtigtes" Papier von Barr et al. (2013) sagen würde, das oft nur als "Keep it maximal" bezeichnet wird.
Barr, DJ, Levy, R., Scheepers, C. und Tily, HJ, 2013. Random-Effects-Struktur für das Testen von Bestätigungshypothesen: Halten Sie es maximal. Journal of Memory and Language, 68 (3), S. 255-278.
In diesem Artikel argumentieren die Autoren, dass alle festen Effekte über die Ebenen der Gruppierungsfaktoren (zufällige Abschnitte) variieren dürfen. Ihre Argumentation ist sehr überzeugend - im Grunde genommen bedeutet dies, dass das Modell Einschränkungen unterliegt , wenn sie nicht variiert werden dürfen. Dies ist in den anderen Antworten gut beschrieben. Es gibt jedoch potenziell schwerwiegende Probleme mit diesem Ansatz, die von Bates el al (2015) beschrieben werden:
Bates, D., Kliegl, R., Vasishth, S. und Baayen, H., 2015. Sparsame gemischte Modelle. arXiv-Vorabdruck arXiv: 1506.04967
An dieser Stelle ist anzumerken, dass Bates der Hauptautor des
lme4
Pakets für die Anpassung gemischter Modelle in R ist, das wahrscheinlich das am häufigsten verwendete Paket für solche Modelle ist. Bates et al. Stellen fest, dass die Daten in vielen realen Anwendungen einfach keine maximale Zufallseffektstruktur unterstützen, da in jedem Cluster nicht genügend Beobachtungen für die relevanten Variablen vorliegen. Dies kann sich in Modellen manifestieren, die nicht konvergieren oder in den zufälligen Effekten singulär sind. Die große Anzahl von Fragen auf dieser Website zu solchen Modellen bestätigt dies. Sie stellen auch fest, dass Barr et al. Eine relativ einfache Simulation mit "gut erzogenen" Zufallseffekten als Grundlage für ihre Arbeit verwendeten. Stattdessen schlagen Bates et al den folgenden Ansatz vor:In derselben Veröffentlichung stellen sie auch fest:
Und:
Bates et al. (2015)
Aus einer eher angewandten Perspektive sollte weiter überlegt werden, ob der Datenerzeugungsprozess, die biologische / physikalische / chemische Theorie, die den Daten zugrunde liegt, den Analytiker bei der Festlegung der Zufallseffektstruktur leiten sollte oder nicht.
quelle