Gibt es einen Namen für diese Art von Bootstrapping?

9

Stellen Sie sich ein Experiment mit mehreren menschlichen Teilnehmern vor, die jeweils mehrfach unter zwei Bedingungen gemessen wurden. Ein Modell mit gemischten Effekten kann (unter Verwendung der lme4- Syntax) wie folgt formuliert werden :

fit = lmer(
    formula = measure ~ (1|participant) + condition
)

Angenommen, ich möchte Bootstrap-Konfidenzintervalle für die Vorhersagen dieses Modells generieren. Ich glaube, ich habe eine einfache und rechnerisch effiziente Methode entwickelt, und ich bin sicher, dass ich nicht der erste bin, der daran denkt, aber ich habe Probleme, frühere Veröffentlichungen zu finden, die diesen Ansatz beschreiben. Hier ist es:

  1. Passen Sie das Modell an (wie oben), nennen Sie dies das "Originalmodell"
  2. Erhalten Sie Vorhersagen aus dem ursprünglichen Modell, nennen Sie diese die "ursprünglichen Vorhersagen".
  3. Erhalten Sie Residuen aus dem ursprünglichen Modell, die jeder Antwort von jedem Teilnehmer zugeordnet sind
  4. Erneutes Abtasten der Residuen, Abtasten der Teilnehmer mit Ersatz
  5. Passen Sie ein lineares Mischeffektmodell mit Gaußschem Fehler an die Residuen an . Nennen Sie dies das "Zwischenmodell".
  6. Berechnen Sie Vorhersagen aus dem Zwischenmodell für jede Bedingung (diese Vorhersagen liegen sehr nahe bei Null), nennen Sie diese die "Zwischenvorhersagen".
  7. Fügen Sie die vorläufigen Vorhersagen zu den ursprünglichen Vorhersagen hinzu und nennen Sie das Ergebnis "Resample-Vorhersagen".
  8. Wiederholen Sie die Schritte 4 bis 7 viele Male und generieren Sie eine Verteilung der Resample-Vorhersagen für jede Bedingung, aus der einmal CIs berechnet werden können.

Ich habe "Residuen-Bootstrapping" -Verfahren im Kontext einer einfachen Regression (dh kein gemischtes Modell) gesehen, bei der Residuen als Resampling-Einheit abgetastet und dann zu den Vorhersagen des ursprünglichen Modells hinzugefügt werden, bevor bei jeder Iteration von ein neues Modell angepasst wird der Bootstrap, aber dies scheint ziemlich anders zu sein als der Ansatz, den ich beschreibe, bei dem Residuen nie neu abgetastet werden, Menschen und erst danachDas Zwischenmodell wird erhalten, wenn die ursprünglichen Modellvorhersagen ins Spiel kommen. Dieses letzte Merkmal hat den Vorteil, dass das Zwischenmodell unabhängig von der Komplexität des Originalmodells immer als lineares gemischtes Gauß-Modell angepasst werden kann, was in einigen Fällen wesentlich schneller sein kann. Zum Beispiel hatte ich kürzlich Binomialdaten und 3 Prädiktorvariablen, von denen ich vermutete, dass eine stark nichtlineare Effekte verursachen würde. Daher musste ich Generalized Additive Mixed Modeling unter Verwendung einer Binomial Link-Funktion verwenden. Das Anpassen des Originalmodells dauerte in diesem Fall über eine Stunde, während das Anpassen des Gaußschen LMM bei jeder Iteration nur Sekunden dauerte.

Ich möchte wirklich keine Priorität beanspruchen, wenn es sich bereits um ein bekanntes Verfahren handelt. Daher wäre ich sehr dankbar, wenn jemand Informationen darüber liefern könnte, wo dies zuvor beschrieben worden sein könnte. (Wenn es bei diesem Ansatz offensichtliche Probleme gibt, lassen Sie es mich wissen!)

Mike Lawrence
quelle
1
Nur ein Nebenkommentar, aber es könnte relevant sein. Peter McCullagh hat eine Arbeit in Bernoulli, in der er zeigt, dass kein Bootstrap die Varianz in einem Zufallseffektmodell korrekt schätzt.
Kardinal
@ Mike (+1) Das ist eine sehr gut geschriebene Frage!
Chl
1
Warum würden Sie die Teilnehmer nicht mit Ersatz neu abtasten und dann auch ihre Daten neu abtasten? Dies scheint eher dem Geist eines Mehrebenenmodells zu entsprechen, bei dem eine Verteilung in einer anderen verschachtelt ist. Ein weiterer Punkt ist, dass es ein potenzielles Problem mit Binomialdaten gibt, da die extremen Enden der Stichproben weniger wahrscheinlich konvergieren.
John
@John: Ich bevorzuge Resampling-Residuen, weil (1) es schneller ist, wenn das ursprüngliche Modell mühsam zu schätzen ist, und (2) es CIs liefert, die die Variabilität aufgrund der Variabilität zwischen den Mittelwerten der Teilnehmer beseitigt haben. # 2 bedeutet, dass Sie nicht mehrere Diagramme erstellen müssen, wenn Sie Rohdaten und einen Effekt mit wiederholten Messungen anzeigen möchten. Sie können diese zwischen Varianz entfernten CIs einfach auf die Rohdaten zeichnen und sie sind für den Vergleich von Bedingungen geeignet, die innerhalb von Individuen wiederholt werden. Zugegeben, es mag Verwirrung über die Bedeutung solcher CIs geben, aber dafür sind Bildunterschriften gedacht.
Mike Lawrence
@ John: Könnten Sie Ihre Befürchtungen hinsichtlich der Anwendbarkeit dieses Ansatzes auf Binomialdaten näher erläutern?
Mike Lawrence

Antworten:

-1

Mein Buch Bootstrap Methods 2nd Edition enthält bis 2007 eine umfangreiche Bibliographie. Selbst wenn ich das Thema im Buch nicht behandele, befindet sich die Referenz möglicherweise in der Bibliographie. Natürlich könnte eine Google-Suche mit den richtigen Schlüsselwörtern besser sein. Freedman, Peters und Navidi haben Bootstrapping für die Vorhersage in linearen Regressions- und ökonometrischen Modellen durchgeführt, aber ich bin mir nicht sicher, was im Fall eines gemischten Modells getan wurde. Stines JASA-Papier Bootstrap-Vorhersageintervalle für die Regression von 1985 sind etwas, das Sie sehr interessant finden werden, wenn Sie es noch nicht gesehen haben.

Michael R. Chernick
quelle