Stellen Sie sich ein Experiment mit mehreren menschlichen Teilnehmern vor, die jeweils mehrfach unter zwei Bedingungen gemessen wurden. Ein Modell mit gemischten Effekten kann (unter Verwendung der lme4- Syntax) wie folgt formuliert werden :
fit = lmer(
formula = measure ~ (1|participant) + condition
)
Angenommen, ich möchte Bootstrap-Konfidenzintervalle für die Vorhersagen dieses Modells generieren. Ich glaube, ich habe eine einfache und rechnerisch effiziente Methode entwickelt, und ich bin sicher, dass ich nicht der erste bin, der daran denkt, aber ich habe Probleme, frühere Veröffentlichungen zu finden, die diesen Ansatz beschreiben. Hier ist es:
- Passen Sie das Modell an (wie oben), nennen Sie dies das "Originalmodell"
- Erhalten Sie Vorhersagen aus dem ursprünglichen Modell, nennen Sie diese die "ursprünglichen Vorhersagen".
- Erhalten Sie Residuen aus dem ursprünglichen Modell, die jeder Antwort von jedem Teilnehmer zugeordnet sind
- Erneutes Abtasten der Residuen, Abtasten der Teilnehmer mit Ersatz
- Passen Sie ein lineares Mischeffektmodell mit Gaußschem Fehler an die Residuen an . Nennen Sie dies das "Zwischenmodell".
- Berechnen Sie Vorhersagen aus dem Zwischenmodell für jede Bedingung (diese Vorhersagen liegen sehr nahe bei Null), nennen Sie diese die "Zwischenvorhersagen".
- Fügen Sie die vorläufigen Vorhersagen zu den ursprünglichen Vorhersagen hinzu und nennen Sie das Ergebnis "Resample-Vorhersagen".
- Wiederholen Sie die Schritte 4 bis 7 viele Male und generieren Sie eine Verteilung der Resample-Vorhersagen für jede Bedingung, aus der einmal CIs berechnet werden können.
Ich habe "Residuen-Bootstrapping" -Verfahren im Kontext einer einfachen Regression (dh kein gemischtes Modell) gesehen, bei der Residuen als Resampling-Einheit abgetastet und dann zu den Vorhersagen des ursprünglichen Modells hinzugefügt werden, bevor bei jeder Iteration von ein neues Modell angepasst wird der Bootstrap, aber dies scheint ziemlich anders zu sein als der Ansatz, den ich beschreibe, bei dem Residuen nie neu abgetastet werden, Menschen und erst danachDas Zwischenmodell wird erhalten, wenn die ursprünglichen Modellvorhersagen ins Spiel kommen. Dieses letzte Merkmal hat den Vorteil, dass das Zwischenmodell unabhängig von der Komplexität des Originalmodells immer als lineares gemischtes Gauß-Modell angepasst werden kann, was in einigen Fällen wesentlich schneller sein kann. Zum Beispiel hatte ich kürzlich Binomialdaten und 3 Prädiktorvariablen, von denen ich vermutete, dass eine stark nichtlineare Effekte verursachen würde. Daher musste ich Generalized Additive Mixed Modeling unter Verwendung einer Binomial Link-Funktion verwenden. Das Anpassen des Originalmodells dauerte in diesem Fall über eine Stunde, während das Anpassen des Gaußschen LMM bei jeder Iteration nur Sekunden dauerte.
Ich möchte wirklich keine Priorität beanspruchen, wenn es sich bereits um ein bekanntes Verfahren handelt. Daher wäre ich sehr dankbar, wenn jemand Informationen darüber liefern könnte, wo dies zuvor beschrieben worden sein könnte. (Wenn es bei diesem Ansatz offensichtliche Probleme gibt, lassen Sie es mich wissen!)
quelle
Antworten:
Mein Buch Bootstrap Methods 2nd Edition enthält bis 2007 eine umfangreiche Bibliographie. Selbst wenn ich das Thema im Buch nicht behandele, befindet sich die Referenz möglicherweise in der Bibliographie. Natürlich könnte eine Google-Suche mit den richtigen Schlüsselwörtern besser sein. Freedman, Peters und Navidi haben Bootstrapping für die Vorhersage in linearen Regressions- und ökonometrischen Modellen durchgeführt, aber ich bin mir nicht sicher, was im Fall eines gemischten Modells getan wurde. Stines JASA-Papier Bootstrap-Vorhersageintervalle für die Regression von 1985 sind etwas, das Sie sehr interessant finden werden, wenn Sie es noch nicht gesehen haben.
quelle