Kontext:
Meine Frage betrifft ein typisches Design in meinem Bereich - ein Forscher nimmt eine Gruppe von Probanden (z. B. 10) und wendet dann drei verschiedene Bedingungen auf sie an, um die Änderung einer Antwortvariablen zu messen, z. B. die vertikale Sprunghöhe, die nach dem Trinken eines farbigen Glukosegetränks durchgeführt wird klares Wasser und Fruchtsaft (sagen wir). Jedes Subjekt hat jede Behandlung, aber in zufälliger Reihenfolge mit genügend Zeit dazwischen, damit die Effekte „ausgewaschen“ werden.
Analyse:
Kuehl (2000) (Kuehl, RO (2009) Versuchsplanung: Statistische Prinzipien des Forschungsdesigns und der Analyse, Duxbury Press, CA, S. 497, 2. Aufl.) Erklärt:
Wenn jede der Behandlungen in zufälliger Reihenfolge an jedes Subjekt verabreicht wird ... dann sind die Subjekte zufällige Blöcke in einem randomisierten vollständigen Blockdesign. “
und zeigt dann die entsprechende Analyse.
In diesem Fall ist das Subjekt ein zufälliger Effekt, aber ein Stör- oder Blockierungsfaktor, und obwohl unser statistisches Modell die Signifikanz des Blockierungsfaktors testet, sind wir nicht wirklich an seiner Signifikanz interessiert. Viele Forscher (und Gutachter!) Sind jedoch der Meinung, dass ein solches Design als Design mit wiederholten Messungen mit einem Mauchly-Test für den Huynh-Feldt-Zustand (mit der Behandlung als wiederholte Messung) analysiert werden sollte. Dies erscheint jedoch angemessener, wenn ein Zeitfaktor analysiert wird - beispielsweise wenn Beobachtungen bei 0 Minuten, 10 Minuten, 30 Minuten und 60 Minuten durchgeführt werden. In diesem Fall kann vernünftigerweise erwartet werden, dass sich die Kovarianz zwischen Zeitpaaren ändert, insbesondere wenn ungleiche Zeitintervalle verwendet werden. [Tatsächlich verwende ich SAS, um in diesem Fall verschiedene Kovarianzstrukturen zu modellieren (z
Ich habe verstanden, dass, wenn das Subjekt ein Blockfaktor ist und die verschiedenen Behandlungen in einer zufälligen Reihenfolge verabreicht werden, die für verschiedene Subjekte unterschiedlich ist, dies bedeutet, dass die Korrelation zwischen Beobachtungen für jedes Subjekt unterschiedlich ist, so dass eine zusammengesetzte Symmetrie angenommen werden kann.
Frage:
- Wie sollten ANOVAs mit wiederholten Messungen mit 3 oder mehr Bedingungen in zufälliger Reihenfolge analysiert werden?
- Ist es sinnvoll, eine zusammengesetzte Symmetrie anzunehmen?
quelle
Antworten:
Wiederholte Maßnahmen sind eine Art überlasteter Begriff. Für einige Leute bezieht es sich auf eine bestimmte statistische Analysemethode; für andere bezieht es sich auf die Struktur des Designs.
Dies ist eine Variante eines Crossover-Designs mit drei Perioden und drei Behandlungen.
Es ist eine Variante, weil Sie normalerweise in einem Crossover-Design Subjekte nach Sequenzen randomisieren. In diesem Fall wird die Reihenfolge für jedes Subjekt zufällig bestimmt. Da es sechs mögliche Sequenzen gibt, kann es sein, dass einige Sequenzen nicht beobachtet werden, insbesondere bei 10 Probanden. Vielleicht ist dies formal dasselbe wie das Randomisieren von Subjekten zu Sequenzen, aber das habe ich mir noch nicht angesehen.
Die Überlegungen für Crossover-Designs sind:
Übertragungseffekte : Auch als Resteffekte bezeichnet , bei denen eine vorherige Behandlung das Ansprechen auf die aktuelle Behandlung beeinflussen kann. Das Ziel der Auswaschperioden ist es, dies aus der Betrachtung zu entfernen. Sie könnten auch (theoretisch) Resteffekte zweiter Ordnung haben, bei denen die in der ersten Periode verabreichte Behandlung möglicherweise das Ansprechen auf die in der dritten Periode gegebene Behandlung beeinflusst.
Periodeneffekte : Das Ansprechen auf die Behandlung (en) kann sich im Verlauf der Studie für ein bestimmtes Thema ändern.
Autokorrelation: Die serielle Korrelation bei Fehlern ist normalerweise ein Problem bei genauer gemessenen Daten. In einfachen, ausgeglichenen Designs bedeutet ein zufälliger Effekt für das Subjekt eine gleiche Korrelation der Fehler von jedem Subjekt.
Auswirkungen auf die Probanden: Die Probanden können unabhängig von der Behandlung in ihrer mittleren Reaktion voneinander abweichen. Sie können sich eine Situation vorstellen, in der Messfehler unabhängig von einem zufälligen Subjekteffekt seriell korreliert wurden.
Sequenzeffekt : In Fällen, in denen Sie Subjekte zu Sequenzen randomisieren, werden Subjekte als in der Sequenz verschachtelt betrachtet.
Eine minimale Analyse hierfür wäre das vorgeschlagene randomisierte vollständige Blockdesign. Das heißt, ein fester Effekt für die Behandlung und ein zufälliger Effekt für das Subjekt. Mit einer knappen Stichprobengröße könnte das alles sein, was Sie wirklich tun können.
Mit Tonnen von Daten könnte man Begriffe ausarbeiten, die eine Abschätzung verschiedener spezifischer Übertragungseffekte ermöglichen würden. Meine Notizen dazu sind weg, obwohl ich weiß, dass ich es in einigen Texten behandelt habe.
Die Strategie, die Korrelationsstruktur zusätzlich auf der R-Seite zu modellieren, erscheint mir vernünftig. Das erlaubt es zu behaupten, dass man mit der möglichen Abhängigkeitsstruktur umgeht, die durch wiederholte Messungen an demselben Thema hervorgerufen wird, was ich wahrscheinlich auch über den zufälligen Effekt für das Subjekt behaupten würde, wenn sich die Analyse auf dieses Niveau verlagern würde ... Es ist auch schön, wenn es verschiedene gibt Analysestrategien liefern weitgehend oder sehr ähnliche Ergebnisse.
Für die Implementierung würde ich
PROC MIXED
inSAS
und wahrscheinlichnlme
oderlme4
in verwendenR
.Ich werde auf die Frage der zusammengesetzten Symmetrie eingehen, da dies eher ein Überbleibsel aus den Tagen zu sein scheint, als MANOVA die einzige "richtige" Analyse für wiederholte Messungen war.
quelle