multiple Regression und multiple Vergleiche

10

Angenommen, ich passe eine multiple Regression von p erklärenden Variablen an. Mit dem t-Test kann ich überprüfen, ob einer davon signifikant ist ( ). Ich kann einen partiellen F-Test durchführen zu prüfen , ob eine Teilmenge von ihnen signifikant ( H 0 : β i = β j = . . . = Β k = 0 ).H0:βi=0H0:βi=βj=...=βk=0

Was ich jedoch oft sehe, ist, dass jemand 5 p-Werte aus 5 t-Tests erhält (vorausgesetzt, er hatte 5 Kovariaten) und nur diejenigen mit einem p-Wert <0,05 behält. Das scheint ein bisschen falsch, da es wirklich eine Mehrfachvergleichsprüfung geben sollte, nein? Ist es wirklich fair zu sagen, dass etwas wie und β 2 signifikant sind, β 3 , β 4 und β 5 jedoch nicht?β1β2β3β4β5

Angenommen, ich führe zwei Regressionen für zwei separate Modelle durch (unterschiedliches Ergebnis). Muss zwischen den beiden Ergebnissen eine mehrfache Vergleichsprüfung auf signifikante Parameter durchgeführt werden?

Bearbeiten: Gibt es zur Unterscheidung von der ähnlichen Frage eine andere Interpretation der p-Werte als: "B_i ist (in) signifikant, wenn für alle anderen Kovariaten angepasst wird"? Es scheint nicht, dass diese Interpretation es mir erlaubt, jedes B_i zu betrachten und die weniger als 0,5 fallen zu lassen (was dem anderen Beitrag ähnlich ist).

Es scheint mir, dass ein sicherer Weg, um zu testen, ob B_i und Y eine Beziehung haben, darin besteht, einen Korrelationskoeffizienten-p-Wert für jede Kovariate zu erhalten und dann einen Multcomp durchzuführen (obwohl dies definitiv das Signal verlieren würde).

Angenommen, ich habe die Korrelation zwischen B1 / Y1, B2 / Y1 und B3 / Y1 berechnet (also drei p-Werte). Unabhängig davon habe ich auch eine Korrelation zwischen T1 / Y2, T2 / Y2, T3 / Y2 durchgeführt. Ich gehe davon aus, dass die korrekte Bonferroni-Anpassung 6 für alle 6 Tests zusammen ist (anstatt 3 für die erste Gruppe und 3 für die zweite Gruppe - und somit 2 "semi" -angepasste p-Werte erhalten).

user1357015
quelle
1
Dies sieht aus wie ein Duplikat von (dieser Frage) [ stats.stackexchange.com/questions/3200/…. Wenn dies nicht der Fall ist, sagen Sie bitte, warum nicht.
Peter Flom - Monica wieder einsetzen
Hallo, es ist ähnlich, aber nicht ganz genau das gleiche. Vielleicht wäre eine bessere Frage, wenn man die Liste der p-Werte erhält, ist die einzig mögliche Interpretation die folgende: "Für alle anderen Parameter ist diese Variable in / signifikant". Wie würden Sie sie alle betrachten?
user1357015
Wenn Sie Ihre Frage bearbeiten möchten, ist das in Ordnung, aber es ist wahrscheinlich besser, dies in der Frage selbst zu tun, damit die Leute es zuerst sehen. Aber ich bin nicht verklagt, was "Wie würden Sie bei allen gedacht aussehen" bedeutet.
Peter Flom - Monica wieder einsetzen

Antworten:

10

t

α=.051(1α)pp=5.23

Ft-tests, würde aber alle Dummy-Codes löschen und stattdessen einen verschachtelten Modelltest durchführen.

Eine andere mögliche Strategie besteht darin, ein Alpha-Anpassungsverfahren wie die Bonferroni-Korrektur zu verwenden. Sie sollten sich darüber im Klaren sein, dass dies sowohl Ihre Leistung als auch Ihre familienbezogene Typ-I-Fehlerrate verringert. Ob sich dieser Kompromiss lohnt, müssen Sie selbst beurteilen. (FWIW, ich verwende normalerweise keine Alphakorrekturen bei multipler Regression.)

p

b1x1+b2x2b1x1+b2x2+b3x3

In Bezug auf die Frage, wie mit Analysen mit verschiedenen abhängigen Variablen umgegangen werden soll, hängt es davon ab, wie Sie die Analysen relativ zueinander sehen, ob Sie eine Anpassung verwenden möchten. Die traditionelle Idee besteht darin, festzustellen, ob sie sinnvoll als „Familie“ betrachtet werden. Dies wird hier diskutiert: Was könnte eine klare, praktische Definition für eine "Familie von Hypothesen" sein? Vielleicht möchten Sie auch diesen Thread lesen: Methoden zum Vorhersagen mehrerer abhängiger Variablen .

gung - Monica wieder einsetzen
quelle
Danke dafür. Es ist genau das, was ich brauchte. In Bezug auf Ihren Kommentar zur Edogenität. Das macht Sinn, aber es scheint, dass wenn ich die konservative Bonferroni-Korrektur der Korrelations-p-Werte durchführe, selbst wenn es eine Endgonität gibt, die Bonferroni-Korrektur dies nicht berücksichtigen sollte, nein?
user1357015
Die Bonferroni-Korrektur hängt nicht mit der Endogenität zusammen. Wenn Ihre Kovariaten überhaupt miteinander korreliert sind, sind die univariaten XY-Korrelationen voreingenommene Schätzungen der Beziehung. Sie sollten das Modell anpassen, das Sie passen möchten, und dort anhalten. Im Allgemeinen besteht keine wirkliche Notwendigkeit, weiter zu gehen. Wenn Sie ein echtes Vorhersagemodell erstellen müssen, sollten Sie eine Kreuzvalidierung oder andere dafür geeignete Techniken verwenden.
Gung - Reinstate Monica
0

Auf praktischer Ebene denke ich, dass man auch überlegen muss, ob die Betas die Ebenen einer kategorialen Variablen (dh Dummies) widerspiegeln. Unter diesen Umständen ist es vernünftig zu wissen, ob sich eine bestimmte Beta von einer (aussagekräftigen) Referenz-Beta unterscheidet. Aber bevor auch paarweise Vergleiche zu tun, würde man muss wissen , ob insgesamt die Pegel der kategorialen Variablen wichtig sind (einen gemeinsamen F - Test oder einen Wahrscheinlichkeitsverhältnis - Test). Dies hat den Vorteil, dass weniger df verwendet wird

Thomas Speidel
quelle