Wie viel kleiner können

13

Intro: Nachdem ich die Aufmerksamkeit zur Kenntnis genommen habe, die heute von dieser Frage erhalten wurde: " Kann ANOVA signifikant sein, wenn keiner der paarweisen t-Tests signifikant ist? " .

Eine Vielzahl von inkongruenten Ergebnissen (zum Nennwert) kann auftreten, wenn die statistische Signifikanz als einfache Dichotomie aufgefasst und auf der bloßen Basis beurteilt wird, die höher ist, das oder das . Die Antwort von @ Glen_b auf die obige Frage zeigt ein nützliches Beispiel für einen Fall, in dem:pα

  • Ein ANOVA- Test erzeugt ein für eine unabhängige Variable (IV) mit vier Ebenen, aberFpF<.05
  • pt>.08 für alle t Tests mit zwei Stichproben , die Unterschiede in derselben abhängigen Variablen (DV) zwischen Beobachtungen vergleichen, die jedem Paar der vier Stufen der IV entsprechen.

Ein ähnlicher Fall ergab sich trotz Bonferroni-Korrekturen für post-hoc paarweise Vergleiche über diese Frage: Anova-Wiederholungsmessungen sind signifikant, aber alle Mehrfachvergleiche mit der Bonferroni-Korrektur sind nicht signifikant? Es gibt auch bereits erwähnte Fälle mit einem etwas anderen Test in multipler Regression:

Ich wette, dass in solchen Fällen einige (aber nicht alle) p Werte vonαp<α paarweisen Vergleichen (oder Signifikanztests für Regressionskoeffizienten) ziemlich nahe an \ alpha liegen müssen, wenn ein entsprechender Omnibus-Test ein p <\ alpha erreichen kann . Ich sehe, dass dies in @ Glen_bs erstem Beispiel der Fall ist, wo F(3,20)=3.19 , pF=.046 und die größte paarweise Differenz das kleinste pt=.054 . Muss das überhaupt so sein? Genauer gesagt :


Frage: Wenn ein ANOVA F- TestF einen pF=.05 für den Effekt einer polytomen IV auf eine kontinuierliche DV ergibt , wie hoch könnte der niedrigste p Wert unter allen zwei Stichproben- t Tests sein, die jedes Paar der IV-Ebenen vergleichen? Könnte die minimale paarweise Signifikanz so hoch sein wie pt=.50 ?


Ich begrüße Antworten, die sich nur mit dieser speziellen Frage befassen . Um diese Frage jedoch weiter zu motivieren, werde ich einige potenziell rhetorische Fragen ausarbeiten und einwerfen. Gerne können Sie auch auf diese Bedenken eingehen und die spezifische Frage ignorieren, wenn Sie möchten, insbesondere wenn die spezifische Frage eine endgültige Antwort erhält.

Signifikanz: Überlegen Sie, um wie viel weniger wichtig der Unterschied zwischen einem und einem wäre, wenn die statistische Signifikanz kontinuierlich anhand der Beweiskraft gegen die Nullhypothese beurteilt würde (Ron Fischers Ansatz, denke ich?). anstatt dichotomisch über oder unter einer Schwelle von für eine akzeptable Fehlerwahrscheinlichkeit bei der Auswahl, ob der Nullgroßhandel abgelehnt werden soll. " hacking " ist ein bekanntes Problem, das teilweise seine Bekanntheit einer unnötigen Verwundbarkeit verdankt, die durch die Interpretation vonp t = .06 α = .05 p p p p .10 p αpF=.04pt=.06α=.05ppWerte gemäß der gängigen Praxis der Zweiteilung der Signifikanz in die Äquivalente "gut genug" und "nicht gut genug". Wenn man diese Praxis ablehnen und sich stattdessen darauf konzentrieren würde, Werte als Beweiskraft gegen die Null in einem kontinuierlichen Intervall zu interpretieren , wäre Omnibus-Test möglicherweise weniger wichtig, wenn man sich wirklich um mehrere paarweise Vergleiche kümmert? Nicht unbedingt nutzlos, da natürlich eine einigermaßen effiziente Verbesserung der statistischen Genauigkeit wünschenswert ist, aber ... wenn zum Beispiel der Wert des niedrigsten paarweisen Vergleichs notwendigerweise innerhalb von des ANOVA (oder eines anderen Omnibus-Tests)pp.10pWert, macht dies den Omnibus-Test nicht etwas trivialer, weniger obligatorisch und noch irreführender (in Verbindung mit bereits bestehenden Missverständnissen), insbesondere wenn man über mehrere Tests hinweg kontrollieren möchte ?α

Wenn umgekehrt Daten vorhanden sein können, bei denen ein Omnibus , aber alle paarweise , sollte dies nicht zu einer weiteren Motivation für Omnibus- und Kontrasttests in der gesamten Praxis und Pädagogik führen? Meines Erachtens sollte dieses Thema auch die relativen Vorzüge der Beurteilung der statistischen Signifikanz nach einer Dichotomie im Vergleich zu einem Kontinuum aufzeigen, da das dichotome Interpretationssystem empfindlicher für kleine Anpassungen sein sollte, wenn Unterschiede "geringfügig signifikant" sind, während keines der beiden Systeme ist sicher vor dem Versagen, einen Sammelbustest durchzuführen oder für mehrere Vergleiche anzupassen, wenn diese Differenz / Anpassung sehr groß sein kann (z. B. .p > .50 p t - p F > .40 )p=.05p>.50ptpF>.40)

Andere wahlweise zu berücksichtigende oder zu ignorierende Komplexitäten - was die Beantwortung einfacher und lohnender macht :

Nick Stauner
quelle
1
Möglicherweise möchten Sie klären, ob für die paarweisen t-Tests dieselbe Schätzung der Fehlervarianz wie für den Omnibus-F-Test verwendet werden soll (im Beispiel von Glen ist dies nicht der Fall).
Scortchi
1
Ich meinte einen gewöhnlichen t-Test für die mit , aber mit berechnet als Quadratwurzel des mittleren ANOVAR-Quadratfehlers. Dies ist der übliche paarweise Post-Hoc-T-Test , der sich im Gegensatz zu Tukeys HSD nicht für mehrere Vergleiche eignet. Es enthält Informationen aus allen Gruppen, ist jedoch unabhängig von Unterschieden in den Gruppenmitteln. σt=(y¯1y¯2)/(σ^1n1+1n2)σ^
Scortchi
1
Ich sehe (irgendwie)! Ich möchte in erster Linie dem Beispiel von @ Glen_b folgen und nicht , sondern die erste von Ihnen erwähnte Formel verwenden, um zu vermeiden, dass Informationen aus allen Gruppen eingefügt werden. Das soll nicht heißen, dass ich hier eine starke Präferenz habe ... aber ein Teil meiner ursprünglichen Absicht war es, eine Variante des gemeinsamen Themas in diesen Fragen zu präsentieren: "Was ist der wahre Schaden, wenn man Informationen ignoriert, die über die beiden fraglichen Gruppen hinausgehen? Zwei-Stichproben-Test unter vielen? " Ich denke, dieses Thema ist es auch wert, in dieser Entscheidung ausgeführt zu werden. MSE
Nick Stauner
1
@Scortchi Bei der anderen Frage habe ich ein Beispiel eingefügt, das Ihren ersten Kommentar abdeckt (dh wo die Tests mit der gemeinsamen Fehlervarianz und df durchgeführt werden), obwohl alle Tests (F und Mehrfachvergleiche) auf einem ziemlich niedrigen Signifikanzniveau durchgeführt werden (0,0025, nicht 0,05). Im Vergleich zu den einzelnen gewöhnlichen Zwei-Stichproben-T-Tests, wie sie von Nick S. hier gestellt wurden, zeigt sich, dass ein beträchtlicher Unterschied in der Signifikanz möglich ist (in diesem Fall ist für alle gewöhnlichen T-Tests, noch ). Ich glaube, mit vielen Gruppen ist es möglich, viel weiter zu gehen. p F < 0,002pt>.05pF<0.002
Glen_b
1
Ich habe vor einigen Minuten eine Antwort auf den ersten Teil dieser Frage in einem Kommentar unter stats.stackexchange.com/questions/83030/… skizziert .
whuber

Antworten:

8

Unter der Annahme , dass für jede Behandlung in einem Einweg-Layout s gleich sind (siehe Anmerkung 2 unten) und dass die gepoolte SD aller Gruppen in den Tests verwendet wird (wie dies bei üblichen Post-hoc-Vergleichen der Fall ist), ist das Maximum möglich - Wert für einen - Test (hier bezeichnet den CDF). Somit kann kein so hoch wie . Interessanterweise (und ziemlich bizarr) gilt die Grenze nicht nur für , sondern für jedes Signifikanzniveau, das wir für benötigen .t p t 2 Φ ( - ntptΦN(0,1)pt0,50,1573pF=.05F2Φ(2).1573ΦN(0,1)pt0.5.1573pF=.05F

Die Begründung lautet wie folgt: Für einen gegebenen Bereich von Stichprobenmitteln ist , die größtmögliche Statistik wird erreicht, wenn die Hälfte von am einen Ende und die andere Hälfte am anderen Ende liegt. Dies stellt den Fall dar, in dem am signifikantesten erscheint, vorausgesetzt, zwei Mittelwerte unterscheiden sich um höchstens .F ˉ y iF2amaxi,j|y¯iy¯j|=2aFy¯iF2a

Nehmen wir also ohne Einschränkung der Allgemeinheit an, dass so dass in diesem Grenzfall ist. Angenommen, ist ohne der Allgemeinheit, da wir die Daten immer auf diesen Wert können. Betrachten wir nun Mittel (wobei Einfachheit halber gerade ist (siehe Anmerkung 1 unten)), so ergibt sich . Wenn Sie so , dass , erhalten Sie . Wenn das gesamte sind (und noch ), die jeweils ungleich Null ˉ y i=±ay¯.=0y¯i=±ak k F = Σ n ˉ y 2 / ( k - 1 )MSE=1kkF=ny¯2/(k1)MSE=kna2k1F = F α = F α , k - 1 , k ( n - 1 ) a = pF=αF=Fα=Fα,k1,k(n1)a=(k1)Fαkn±einMSE=1tt=2ay¯i±aMSE=1t Statistik ist somit . Dies ist der kleinstmögliche maximale Wert, wenn . tF=Fαt=2a12/n=2(k1)FαktF=Fα

Sie können also einfach verschiedene Fälle von und versuchen , und das zugehörige . Jedoch bemerkt , dass für die gegebenen , ist in abnehm [aber siehe Anmerkung 3 unten]; Außerdem ist , wie , ; Also . Man beachte, dass das Mittel und SD . Also , unabhängig davonn t p t k F α n n ( k - 1 ) F α , k - 1 , k ( n - 1 )χ 2 α , k - 1 t t m i n = kntptkFαnn(k1)Fα,k1,k(n1)χα,k12 χ2/k= k - 1ttmin=2χα,k12/kk-1χ2/k=k1kχ2/(k1) k-1k1k limktmin=k1k2k1 αlimktmin=2α , und das Ergebnis, das ich oben im ersten Absatz angegeben habe, ergibt sich aus der asymptotischen Normalität.

Es dauert jedoch lange, bis diese Grenze erreicht ist. Hier sind die Ergebnisse (berechnet mit R) für verschiedene Werte von unter Verwendung von :α = .05kα=.05

k       t_min    max p_t   [ Really I mean min(max|t|) and max(min p_t)) ]
2       1.960     .0500
4       1.977     .0481   <--  note < .05 !
10      1.840     .0658
100     1.570     .1164
1000    1.465     .1428
10000   1.431     .1526

Ein paar lose Enden ...

  1. Wenn k ungerade ist: Die maximale Statistik tritt immer noch auf, wenn die alle ; Wir haben jedoch einen Wert mehr an einem Ende des Bereichs als am anderen, was den Mittelwert ergibt, und Sie können zeigen, dass der Faktor in der Statistik durch . Dies ersetzt auch den Nenner von , macht ihn etwas größer und verringert damit .ˉ y i ± a ± a / k k F k - 1Fy¯i±a±a/kkF tptk1ktpt
  2. Ungleich :n F ˉ y i = ± a F N = Σ n i t n i p t Das Maximum wird immer noch mit , wobei die Zeichen so angeordnet sind, dass die Stichprobengrößen möglichst gleichmäßig verteilt werden. Dann ist die Statistik für dieselbe Gesamtstichprobengröße gleich oder kleiner als für ausgeglichene Daten. Darüber hinaus ist die maximale Statistik größer, da sie die mit dem größten . Wir können also keine größeren Werte erhalten, wir uns unausgeglichene Fälle .Fy¯i=±aFN=nitnipt
  3. Eine leichte Korrektur: Ich habe mich so darauf konzentriert, das Minimum zu finden, dass ich die Tatsache übersehen habe, dass wir versuchen, zu maximieren , und es ist weniger offensichtlich, dass ein größeres mit weniger df nicht weniger ist als ein kleineres mit mehr df. Ich habe dies jedoch überprüft, indem ich die Werte für berechnet habe bis die df hoch genug sind, um einen geringen Unterschied zu machen. Für den Fall ich keine Fälle gesehen, in denen die Werte nicht mit anstiegen . Man beachte, dass so dass die möglichen df die schnell groß werden, wenntpttn=2,3,4,α=.05,k3ptndf=k(n1)k,2k,3k,kist groß. Mit dem obigen Claim bin ich also immer noch auf sicherem Boden. Ich habe auch getestet , und der einzige Fall, bei dem ich festgestellt habe, dass die Schwelle überschritten wurde, war .α=.25.1573k=3,n=2
rvl
quelle