Ich habe einige Daten, von denen ich nicht unbedingt annehmen kann, dass sie aus Normalverteilungen stammen, und ich möchte Äquivalenztests zwischen Gruppen durchführen. Für normale Daten gibt es Techniken wie TOST (zwei einseitige T-Tests). Gibt es etwas Analoges zu TOST für nicht normale Daten?
hypothesis-testing
equivalence
tost
Ryan C. Thompson
quelle
quelle
Antworten:
Die Logik der TOST eingesetzt für Wald-Typ t und z Teststatistiken (dhθ/sθ und θ/σθ bezeichnet) kann auf die aufgetragen werden z für nicht - parametrische Tests wie das Zeichen, Zeichen Rang und Rangsummentests Annäherungen. Der Einfachheit halber gehe ich davon aus, dass die Äquivalenz symmetrisch mit einem einzelnen Term ausgedrückt wird, aber die Erweiterung meiner Antwort auf asymmetrische Äquivalenzterme ist unkompliziert.
Ein Problem, das dabei auftritt, ist, dass, wenn man es gewohnt ist, den Äquivalenzterm (z. B.Δ ) in denselben Einheiten wie θ auszudrücken, der Äquivalenzterm in Einheiten des jeweiligen Vorzeichens, des vorzeichenbehafteten Ranges oder Ranges ausgedrückt werden muss Summenstatistik, die sowohl abstrus als auch von N abhängig ist .
Man kann jedoch auch TOST-Äquivalenzterme in Einheiten der Teststatistik selbst ausdrücken. Man bedenke , dass in TOST, wennz=θ/σθ , dann z1=(Δ−θ)/σθ und z2=(θ+Δ)/σθ . Wenn wir ε=Δ/σθ , dann ist z1=ε−z und z2=z+ε . (Die hier ausgedrückten Statistiken werden beide imrechtenSchwanzausgewertet:p1=P(Z>z1) undp2= P ( Z.> z2) .) Die Verwendung von Einheiten derz-Verteilung zur Definition der Äquivalenz- / Relevanzschwelle kann für nichtparametrische Tests vorzuziehen sein, da die Alternative den Schwellenwert in Einheiten von vorzeichenbehafteten Rängen oder Rangsummen definiert, was für Forscher im Wesentlichen bedeutungslos und schwer zu interpretieren sein kann.
Wenn wir erkennen, dass es (für symmetrische Äquivalenzintervalle) nicht möglich ist, eine TOST-Nullhypothese abzulehnen, wennε ≤ z1 - α , können wir entsprechend Entscheidungen über die geeignete Größe des Äquivalenzterms treffen. Zum Beispiel ist ε = z1 - α+ 0,5 .
Dieser Ansatz wurde mit Optionen zur Kontinuitätskorrektur usw. im Paket tost für Stata implementiert (das jetzt spezifische TOST-Implementierungen für die Shapiro-Wilk- und Shapiro-Francia-Tests enthält), auf die Sie zugreifen können, indem Sie Stata eingeben:Bearbeiten: Warum die Logik von TOST solide ist und Äquivalenztestformationen auf Sammeltests angewendet wurden, hat mich überzeugt, dass meine Lösung auf einem tiefen Missverständnis der ungefähren Statistiken für die Shapiro-Wilk- und Shapiro-Francia-Tests beruhte
quelle
Es ist kein TOST an sich, aber der Komolgorov-Smirnov-Test ermöglicht es, die Signifikanz des Unterschieds zwischen einer Stichprobenverteilung und einer zweiten Referenzverteilung, die Sie angeben können, zu testen. Sie können diesen Test verwenden, um eine bestimmte Art unterschiedlicher Verteilung auszuschließen, jedoch nicht unterschiedliche Verteilung im Allgemeinen (zumindest nicht ohne Kontrolle der Fehlerinflation über Tests aller möglichen Alternativen hinweg ... wenn dies selbst irgendwie möglich ist). Die alternative Hypothese für einen Test bleibt wie üblich die weniger spezifische "Catch-All" -Hypothese.
Wenn Sie sich mit einem Test der Verteilungsunterschiede zwischen zwei Gruppen zufrieden geben können, bei dem die Nullhypothese lautet, dass die beiden Gruppen gleich verteilt sind, können Sie den Komolgorov-Smirnov-Test verwenden, um die Verteilung einer Gruppe mit der der anderen Gruppe zu vergleichen. Dies ist wahrscheinlich der herkömmliche Ansatz: Ignorieren Sie die Unterschiede, wenn sie statistisch nicht signifikant sind, und begründen Sie diese Entscheidung mit einer Teststatistik.
In jedem Fall möchten Sie möglicherweise einige tiefere Aspekte berücksichtigen, die sich aus dem "Alles-oder-Nichts" -Ansatz zur Ablehnung einer Nullhypothese ergeben. Ein solches Problem ist hier bei Cross Validated sehr beliebt: " Ist Normalitätstest 'im Wesentlichen nutzlos'? " Die Leute beantworten Fragen zum Normalitätstest gerne mit der Frage: "Warum möchten Sie dies testen?" Ich gehe davon aus, dass die Absicht im Allgemeinen darin besteht, den Grund für das Testen ungültig zu machen, was letztendlich in die richtige Richtung führen kann. Der Kern nützlicher Antworten auf die Frage, die ich hier verlinkt habe, scheint wie folgt zu sein:
Wenn Sie dennoch einen Äquivalenztest durchführen möchten, finden Sie hier eine weitere beliebte Diskussion zu Cross Validated , die Äquivalenztests umfasst.
quelle
fail to
/reject
Ansatz ist gut etabliert, können die meisten Proben die Möglichkeit nicht ganz ausschließen , dass die Null wahr ist. Es besteht fast immer die Möglichkeit eines falschen Ablehnungsfehlers, wenn man auf einer Ablehnung besteht, was normalerweise nicht buchstäblich notwendig ist. Das war wahrscheinlich der wichtigere Punkt, den ich ursprünglich ansprechen wollte. Hoffentlich ist es jetzt etwas klarer ohne das gelöschte ZeugÄquivalenz können wir niemals testen . Denken Sie an die Hypothese:H.0: fx≠ fy H.1: fx= fy H.0 fx∼ N.( 0 , 1 ) f^x f^y X.= Y. fy≈ fx
gibt
Auf der anderen Seite, wenn wir nehmen:
Gibt:
Wie bei NHST gibt es subtile Probleme in Bezug auf Leistung und falsch positive Fehlerraten, die mit der Simulation untersucht werden sollten, bevor endgültige Schlussfolgerungen gezogen werden.
Ich denke, eine ähnliche (vielleicht allgemeinere) Methode verwendet Bayes'sche Statistiken, um den nach beiden Wahrscheinlichkeitsmodellen geschätzten posterioren Wert zu vergleichen.
quelle