Ich habe ein Experiment mit einer ANOVA mit wiederholten Messungen analysiert. Die ANOVA ist eine 3x2x2x2x3 mit 2 Zwischensubjektfaktoren und 3 innerhalb (N = 189). Fehlerrate ist die abhängige Variable. Die Verteilung der Fehlerraten hat einen Versatz von 3,64 und eine Kurtosis von 15,75. Der Versatz und die Kurtosis sind das Ergebnis von 90% der Fehlerquote, was bedeutet, dass 0 ist. Das Lesen einiger der vorherigen Threads zu Normalitätstests hier hat mich ein wenig verwirrt. Ich dachte, wenn Sie Daten hatten, die nicht normal verteilt waren, war es in Ihrem besten Interesse, sie nach Möglichkeit zu transformieren, aber es scheint, dass viele Leute denken, dass das Analysieren von nicht normalen Daten mit einer ANOVA oder einem T-Test akzeptabel ist. Kann ich den Ergebnissen der ANOVA vertrauen?
(Zukünftig beabsichtige ich, diese Art von Daten in R mit gemischten Modellen mit einer Binomialverteilung zu analysieren.)
Antworten:
Wie bei anderen parametrischen Tests wird bei der Varianzanalyse davon ausgegangen, dass die Daten zur Normalverteilung passen. Wenn Ihre Messgröße nicht normal verteilt ist, können Sie die Wahrscheinlichkeit eines falsch positiven Ergebnisses erhöhen, wenn Sie die Daten mit einer Anova oder einem anderen Test analysieren, der von Normalität ausgeht. Glücklicherweise reagiert eine Anova nicht sehr empfindlich auf mäßige Abweichungen von der Normalität. Simulationsstudien unter Verwendung verschiedener nicht normaler Verteilungen haben gezeigt, dass die falsch-positive Rate durch diese Verletzung der Annahme nicht sehr stark beeinflusst wird (Glass et al. 1972, Harwell et al. 1992, Lix et al. 1996). Dies liegt daran, dass bei einer großen Anzahl von Zufallsstichproben aus einer Grundgesamtheit die Mittelwerte dieser Stichproben auch dann ungefähr normal verteilt sind, wenn die Grundgesamtheit nicht normal ist.
Es ist möglich, die Anpassungsgüte eines Datensatzes an die Normalverteilung zu testen. Ich schlage nicht vor, dass Sie dies tun, da viele Datensätze, die signifikant nicht normal sind, für eine Anova perfekt geeignet wären.
Wenn Sie stattdessen über einen ausreichend großen Datensatz verfügen, sollten Sie sich nur das Frequenzhistogramm ansehen. Wenn es mehr oder weniger normal aussieht, führen Sie eine Anova durch. Wenn es aussieht wie eine Normalverteilung, die auf eine Seite verschoben wurde, wie die Sulfatdaten oben, sollten Sie verschiedene Datentransformationen ausprobieren und prüfen, ob eines davon das Histogramm normaler erscheinen lässt. Wenn das nicht funktioniert und die Daten immer noch sehr ungewöhnlich aussehen, ist es wahrscheinlich immer noch in Ordnung, die Daten mit einer Anova zu analysieren. Möglicherweise möchten Sie es jedoch mit einem nicht parametrischen Test analysieren. Nahezu jeder parametrische statistische Test hat einen nicht-parametrischen Ersatz wie den Kruskal-Wallis-Test anstelle einer Einweganova, den Wilcoxon-Signed-Rank-Test anstelle eines gepaarten t-Tests und die Spearman-Rank-Korrelation anstelle einer linearen Regression. Bei diesen nicht parametrischen Tests wird nicht davon ausgegangen, dass die Daten zur Normalverteilung passen. Sie gehen jedoch davon aus, dass die Daten in verschiedenen Gruppen die gleiche Verteilung aufweisen. Wenn verschiedene Gruppen unterschiedlich geformte Verteilungen haben (z. B. eine nach links und eine nach rechts), ist ein nicht parametrischer Test möglicherweise nicht besser als ein parametrischer Test.
Verweise
quelle
Speziell in Bezug auf Fehlerraten als DV zeigt Dixon (2008) sehr eindringlich, dass das Testen von Nullhypothesen über ANOVA sowohl erhöhte Fehlalarmraten (das Aufrufen von Effekten "signifikant", wenn sie nicht sind) als auch erhöhte Fehlalarmraten (fehlende reale Effekte) verursachen kann. Er zeigt auch, dass die Modellierung gemischter Effekte unter Angabe eines binomial verteilten Fehlers der geeignetere Ansatz für die Analyse von Geschwindigkeitsdaten ist.
quelle
Sie können Ihrer ANOVA nicht so viel Versatz und eine große Anzahl von Nullen anvertrauen. Eine geeignetere Methode wäre, die Anzahl der Fehler als DV zu verwenden (wodurch Ihre DV in Zähldaten umgewandelt wird) und eine Poisson-Analyse durchzuführen. Dieser Ansatz würde die Verwendung einer Analyse mit gemischten Effekten und die Angabe der Fehlerverteilungsfamilie als Poisson erfordern. Der von Mike Lawrence erwähnte Artikel in Dixon (2008) * verwendet eine Mixed-Effects-Analyse in R, jedoch mit binomialen Ergebnissen. Ich bin für die meisten meiner Analysen mit wiederholten Messungen komplett auf R umgestiegen, weil so viele meiner Ergebnisvariablen binomisch sind. Das passende R-Paket ist
lme4
.quelle
Juan hat eine Menge geboten, obwohl ich andere wiederholen werde, dass die Variablen selbst aus Gründen der Genauigkeit nicht normal sein können, solange ihre Residuen nicht normal sind. Eine vereinfachte und etwas strukturiertere Antwort (über ein kommentiertes Flussdiagramm) finden Sie auch auf yellowbrickstats.com .
quelle
Deckeneffekte sind hier das Problem. Ein nicht parametrischer Test ist Ihre sicherste Wahl, obwohl ANOVAs dieser Verletzung der Normalität widerstehen, wenn n groß ist. Normalerweise verwenden die Benutzer nur ein Histogramm, um dies zu testen. Wenn es sich jedoch um ein Problem mit Residuen handelt, ist es möglicherweise weiter fortgeschritten. Bedenken Sie auch, WIE sich dies auf Ihre Ergebnisse auswirkt (nicht nur, dass dies der Fall ist). Pallant (2007) würde wahrscheinlich sagen, dass dies die Wahrscheinlichkeit eines Tippfehlers erhöht. Wenn Sie also Ihr kritisches Alpha verringern, verringern Sie dies.
quelle