Angenommen, ich passe eine multiple Regression von p erklärenden Variablen an. Mit dem t-Test kann ich überprüfen, ob einer davon signifikant ist ( ). Ich kann einen partiellen F-Test durchführen zu prüfen , ob eine Teilmenge von ihnen signifikant ( H 0 : β i = β j = . . . = Β k = 0 ).
Was ich jedoch oft sehe, ist, dass jemand 5 p-Werte aus 5 t-Tests erhält (vorausgesetzt, er hatte 5 Kovariaten) und nur diejenigen mit einem p-Wert <0,05 behält. Das scheint ein bisschen falsch, da es wirklich eine Mehrfachvergleichsprüfung geben sollte, nein? Ist es wirklich fair zu sagen, dass etwas wie und β 2 signifikant sind, β 3 , β 4 und β 5 jedoch nicht?
Angenommen, ich führe zwei Regressionen für zwei separate Modelle durch (unterschiedliches Ergebnis). Muss zwischen den beiden Ergebnissen eine mehrfache Vergleichsprüfung auf signifikante Parameter durchgeführt werden?
Bearbeiten: Gibt es zur Unterscheidung von der ähnlichen Frage eine andere Interpretation der p-Werte als: "B_i ist (in) signifikant, wenn für alle anderen Kovariaten angepasst wird"? Es scheint nicht, dass diese Interpretation es mir erlaubt, jedes B_i zu betrachten und die weniger als 0,5 fallen zu lassen (was dem anderen Beitrag ähnlich ist).
Es scheint mir, dass ein sicherer Weg, um zu testen, ob B_i und Y eine Beziehung haben, darin besteht, einen Korrelationskoeffizienten-p-Wert für jede Kovariate zu erhalten und dann einen Multcomp durchzuführen (obwohl dies definitiv das Signal verlieren würde).
Angenommen, ich habe die Korrelation zwischen B1 / Y1, B2 / Y1 und B3 / Y1 berechnet (also drei p-Werte). Unabhängig davon habe ich auch eine Korrelation zwischen T1 / Y2, T2 / Y2, T3 / Y2 durchgeführt. Ich gehe davon aus, dass die korrekte Bonferroni-Anpassung 6 für alle 6 Tests zusammen ist (anstatt 3 für die erste Gruppe und 3 für die zweite Gruppe - und somit 2 "semi" -angepasste p-Werte erhalten).
quelle
Antworten:
Eine andere mögliche Strategie besteht darin, ein Alpha-Anpassungsverfahren wie die Bonferroni-Korrektur zu verwenden. Sie sollten sich darüber im Klaren sein, dass dies sowohl Ihre Leistung als auch Ihre familienbezogene Typ-I-Fehlerrate verringert. Ob sich dieser Kompromiss lohnt, müssen Sie selbst beurteilen. (FWIW, ich verwende normalerweise keine Alphakorrekturen bei multipler Regression.)
In Bezug auf die Frage, wie mit Analysen mit verschiedenen abhängigen Variablen umgegangen werden soll, hängt es davon ab, wie Sie die Analysen relativ zueinander sehen, ob Sie eine Anpassung verwenden möchten. Die traditionelle Idee besteht darin, festzustellen, ob sie sinnvoll als „Familie“ betrachtet werden. Dies wird hier diskutiert: Was könnte eine klare, praktische Definition für eine "Familie von Hypothesen" sein? Vielleicht möchten Sie auch diesen Thread lesen: Methoden zum Vorhersagen mehrerer abhängiger Variablen .
quelle
Auf praktischer Ebene denke ich, dass man auch überlegen muss, ob die Betas die Ebenen einer kategorialen Variablen (dh Dummies) widerspiegeln. Unter diesen Umständen ist es vernünftig zu wissen, ob sich eine bestimmte Beta von einer (aussagekräftigen) Referenz-Beta unterscheidet. Aber bevor auch paarweise Vergleiche zu tun, würde man muss wissen , ob insgesamt die Pegel der kategorialen Variablen wichtig sind (einen gemeinsamen F - Test oder einen Wahrscheinlichkeitsverhältnis - Test). Dies hat den Vorteil, dass weniger df verwendet wird
quelle