Nehmen wir an, wir haben ein Modell
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Hier beobachten wir eine singuläre Anpassung, da die Korrelation zwischen Intercept- und x-Zufallseffekten -1 beträgt. Gemäß diesem hilfreichen Link besteht eine Möglichkeit, mit diesem Modell umzugehen, darin, zufällige Effekte höherer Ordnung (z. B. X: Bedingung B) zu entfernen und zu prüfen, ob dies beim Testen auf Singularität einen Unterschied macht. Die andere besteht darin, den Bayes'schen Ansatz zu verwenden, z. B. das blme
Paket, um Singularität zu vermeiden.
Was ist die bevorzugte Methode und warum?
Ich frage dies, weil die Verwendung des ersten oder des zweiten zu unterschiedlichen Ergebnissen führt. Im ersten Fall entferne ich den Zufallseffekt X: ConditionB und kann die Korrelation zwischen den Zufallseffekten X und C: ConditionB nicht abschätzen. Andererseits blme
ermöglicht mir die Verwendung von X: ConditionB und die Schätzung der angegebenen Korrelation. Ich sehe keinen Grund, warum ich überhaupt die nicht-bayesianischen Schätzungen verwenden und zufällige Effekte entfernen sollte, wenn singuläre Anpassungen auftreten, wenn ich alles mit dem Bayes'schen Ansatz schätzen kann.
Kann mir jemand die Vorteile und Probleme erklären, die mit beiden Methoden auftreten, um mit einzelnen Anpassungen umzugehen?
Vielen Dank.
quelle
Antworten:
Wenn Sie eine singuläre Anpassung erhalten, deutet dies häufig darauf hin, dass das Modell überangepasst ist - das heißt, die Struktur der Zufallseffekte ist zu komplex, um von den Daten unterstützt zu werden, was natürlich zu dem Rat führt, den komplexesten Teil der Zufallseffekte zu entfernen Struktur (normalerweise zufällige Steigungen). Der Vorteil dieses Ansatzes besteht darin, dass er zu einem sparsameren Modell führt, das nicht überpasst ist.
Haben Sie jedoch einen guten Grund, bevor Sie etwas unternehmen
X
,Condition
und ihre Interaktion, die sich in erster Linie je nach Thema unterscheidet? Schlägt die Theorie, wie die Daten erzeugt werden, dies vor?Wenn Sie das Modell mit der maximalen Zufallseffektstruktur
lme4
anpassen möchten und eine singuläre Anpassung erhalten möchten, können Sie durch Anpassen desselben Modells in einem Bayes'schen Framework sehr gut darüber informiert werden, warumlme4
Probleme aufgetreten sind, indem Sie die Trace-Diagramme untersuchen und wie gut die verschiedenen Parameterschätzungen konvergieren . Der Vorteil des Bayes'schen Ansatzes besteht darin, dass Sie auf diese Weise ein Problem mit dem Originalmodell aufdecken können, d. H. Der Grund, warum die Struktur mit den maximalen Zufallseffekten von den Daten nicht unterstützt wird, oder warum möglicherweiselme4
nicht in das Modell passt. Ich bin auf Situationen gestoßen, in denen ein Bayes'sches Modell nicht gut konvergiert, es sei denn, es werden informative Prioritäten verwendet - was möglicherweise in Ordnung ist oder nicht.Kurz gesagt, beide Ansätze haben ihre Berechtigung.
Ich würde jedoch immer an einem Ort beginnen, an dem das ursprüngliche Modell sparsam ist und durch Expertenwissen informiert wird, um die am besten geeignete Struktur für zufällige Effekte zu bestimmen. Gruppenvariablen Festlegen ist relativ einfach, aber zufällige Pisten in der Regel nicht haben aufgenommen werden. Schließen Sie sie nur ein, wenn sie theoretisch sinnvoll sind UND von den Daten unterstützt werden.
Bearbeiten: In den Kommentaren wird erwähnt, dass es fundierte theoretische Gründe gibt, um die maximale Zufallseffektstruktur anzupassen. Also, eine relativ einfache Art und Weise mit einem äquivalenten Bayes - Modell zu verfahren ist , den Anruf zu wechseln
glmer
mitstan_glmer
aus demrstanarm
Paket - es ist so konzipiert , Plug and Play sein. Es verfügt über Standardpriors, sodass Sie schnell ein Modell anpassen können. Das Paket enthält auch viele Instrumente zur Bewertung der Konvergenz. Wenn Sie feststellen, dass alle Parameter zu plausiblen Werten konvergieren, sind Sie alle gut. Es kann jedoch eine Reihe von Problemen geben - zum Beispiel eine Varianz, die auf oder unter Null geschätzt wird, oder eine Schätzung, die weiter driftet. Die Website mc-stan.org bietet eine Fülle von Informationen und ein Benutzerforum.quelle
Dies ist ein sehr interessanter Thread mit interessanten Antworten und Kommentaren! Da dies noch nicht angesprochen wurde, wollte ich darauf hinweisen, dass wir für jedes Thema nur sehr wenige Daten haben (so wie ich es verstehe). In der Tat hat jedes Subjekt nur zwei Werte für jede der Antwortvariablen Y, der kategorialen Variablen Bedingung und der kontinuierlichen Variablen X. Insbesondere wissen wir, dass die zwei Werte von Bedingung A und B sind.
Wenn wir die zweistufige Regressionsmodellierung anstelle der Modellierung mit gemischten Effekten verfolgen würden, könnten wir nicht einmal ein lineares Regressionsmodell an die Daten eines bestimmten Subjekts anpassen, wie im folgenden Spielzeugbeispiel für eines der Subjekte dargestellt:
Die Ausgabe dieses fachspezifischen Modells wäre:
Beachten Sie, dass die Modellanpassung unter Singularitäten leidet, da wir versuchen, 4 Regressionskoeffizienten plus die Fehlerstandardabweichung mit nur 2 Beobachtungen zu schätzen.
Die Singularitäten würden bestehen bleiben, selbst wenn wir dieses Thema unter jeder Bedingung zweimal - und nicht einmal - beobachten würden. Wenn wir das Subjekt jedoch unter jeder Bedingung dreimal beobachten würden, würden wir Singularitäten loswerden:
Hier ist die entsprechende R-Ausgabe für dieses zweite Beispiel, aus dem die Singularitäten verschwunden sind:
Natürlich passt das Modell mit gemischten Effekten nicht zu nicht verwandten, separaten linearen Regressionsmodellen für jedes Subjekt - es passt zu "verwandten" Modellen, deren Abschnitte und / oder Steigungen zufällig um einen typischen Abschnitt und / oder eine Steigung abweichen, so dass die zufälligen Abweichungen von den Ein typischer Achsenabschnitt und / oder eine typische Steigung folgen einer Normalverteilung mit dem Mittelwert Null und einer unbekannten Standardabweichung.
Trotzdem deutet meine Intuition darauf hin, dass das Modell mit gemischten Effekten mit der geringen Anzahl von Beobachtungen - nur 2 - zu kämpfen hat, die für jedes Thema verfügbar sind. Je mehr das Modell mit zufälligen Steigungen beladen ist, desto mehr Probleme hat es wahrscheinlich. Ich vermute, wenn jedes Subjekt 6 Beobachtungen anstelle von 2 (dh 3 pro Bedingung) beisteuerte, würde es nicht länger Schwierigkeiten haben, alle zufälligen Steigungen zu berücksichtigen.
Es scheint mir, dass dies ein Fall sein könnte (?), In dem das aktuelle Studiendesign die komplexen Modellierungsambitionen nicht unterstützt. Um diese Ambitionen zu unterstützen, wären unter jeder Bedingung für jedes Fach (oder zumindest für einige der Fälle) mehr Beobachtungen erforderlich Themen?). Dies ist nur meine Intuition, also hoffe ich, dass andere ihre Erkenntnisse zu meinen obigen Beobachtungen hinzufügen können. Danke im Voraus!
quelle