Ich passe ein Modell mit mehreren linearen Regressionen zwischen 4 kategorialen Variablen (mit jeweils 4 Ebenen) und einer numerischen Ausgabe an. Mein Datensatz enthält 43 Beobachtungen.
Die Regression gibt mir die folgenden Werte aus dem Test für jeden Steigungskoeffizienten: . Somit ist der Koeffizient für den vierten Prädiktor bei einem Konfidenzniveau von signifikant .
Andererseits gibt mir die Regression einen Wert aus einem Gesamt- Test der Nullhypothese, dass alle meine Steigungskoeffizienten gleich Null sind. Für meinen Datensatz ist dieser Wert .
Meine Frage: Wie soll ich diese Ergebnisse interpretieren? Welchen Wert soll ich verwenden und warum? Unterscheidet sich der Koeffizient für die 4. Variable beim Konfidenzniveau von signifikant von ?
Ich habe eine verwandte Frage gesehen, und Statistiken in einer Regression , aber es gab eine gegenteilige Situation: hohe Test- Werte und niedrige Test- Werte. Ehrlich gesagt verstehe ich nicht ganz, warum wir zusätzlich zu einem Test einen Test benötigen, um festzustellen, ob sich die linearen Regressionskoeffizienten signifikant von Null unterscheiden.
Antworten:
Ich bin mir nicht sicher, ob Multikollinearität das ist, was hier vor sich geht. Es könnte sicher sein, aber aus den gegebenen Informationen kann ich nicht schließen, und ich möchte nicht dort anfangen. Meine erste Vermutung ist, dass dies ein Problem mit mehreren Vergleichen sein könnte. Das heißt, wenn Sie genügend Tests durchführen, wird etwas angezeigt, auch wenn dort nichts vorhanden ist.
Eines der Themen, auf die ich eingehen möchte, ist, dass das Problem der Mehrfachvergleiche immer im Hinblick auf die Untersuchung vieler paarweiser Vergleiche erörtert wird, z. B. das Ausführen von t-Tests für jede einzelne Ebenenpaarung. (Eine humorvolle Darstellung mehrerer Vergleiche finden Sie hier .) Dadurch entsteht der Eindruck, dass dies der einzige Ort ist, an dem dieses Problem auftritt. Aber das ist einfach nicht wahr - das Problem der mehrfachen Vergleiche taucht überall auf. Wenn Sie beispielsweise eine Regression mit 4 erklärenden Variablen ausführen, treten dieselben Probleme auf. In einem gut durchdachten Experiment können IVs orthogonal sein, aber die Leute sorgen sich routinemäßig darum, Bonferroni-Korrekturen an Sätzen von orthogonalen A-priori-Kontrasten anzuwenden, und denken nicht zweimal über faktorielle ANOVAs nach. Meiner Meinung nach ist dies inkonsistent.
Der globale F-Test wird als "gleichzeitiger" Test bezeichnet. Dadurch wird überprüft, ob alle Ihre Prädiktoren nicht mit der Antwortvariablen zusammenhängen. Der gleichzeitige Test bietet einen gewissen Schutz vor dem Problem der mehrfachen Vergleiche, ohne den Stromausfall von Bonferroni in Kauf nehmen zu müssen. Leider ist meine Interpretation von dem, was Sie melden, dass Sie einen Nullbefund haben.
Gegen diese Interpretation sprechen mehrere Dinge. Erstens haben Sie mit nur 43 Daten mit ziemlicher Sicherheit nicht viel Strom. Es ist durchaus möglich, dass es einen echten Effekt gibt, aber Sie können ihn nur nicht ohne weitere Daten auflösen. Zweitens mache ich mir, wie sowohl @andrea als auch @Dimitriy, Sorgen darüber, ob es angemessen ist, kategoriale Variablen mit vier Ebenen als numerisch zu behandeln. Dies ist möglicherweise nicht angemessen und kann eine Reihe von Auswirkungen haben, einschließlich der Einschränkung Ihrer Fähigkeit, das zu erkennen, was wirklich vorhanden ist. Schließlich bin ich mir nicht sicher, ob Signifikanztests so wichtig sind, wie die Leute glauben. A von ist Art von niedrig; ist da wirklich etwas los? vielleicht! Wer weiß? - um .05 gibt es keine „helle Linie“, die echte Effekte vom bloßen Aussehen abgrenzt.p .11
quelle
Ich möchte vorschlagen, dass dieses Phänomen (eines nicht signifikanten Gesamttests trotz einer signifikanten Einzelvariablen) als eine Art aggregierter "Maskierungseffekt" aufgefasst werden kann und dass es sich möglicherweise aus multikollinearen erklärenden Variablen ergibt, dies aber nicht muss das überhaupt. Es stellt sich auch heraus, dass dies nicht auf mehrfache Vergleichseinstellungen zurückzuführen ist. Diese Antwort fügt somit den bereits erschienenen Antworten einige Qualifikationen hinzu, was im Gegenteil nahe legt, dass entweder Multikollinearität oder Mehrfachvergleiche als die Schuldigen angesehen werden sollten.
Um die Plausibilität dieser Behauptungen zu ermitteln, generieren wir eine Sammlung von perfekt orthogonalen Variablen - so nicht kollinear wie möglich - und einer abhängigen Variablen, die explizit nur durch die erste der Erklärungen bestimmt wird (zuzüglich einer guten Menge an Zufallsfehlern) unabhängig von allem anderen). In
R
dieser kann (reproduzierbar, wenn Sie experimentieren mögen) durchgeführt werden , wieEs ist unwichtig, dass die erklärenden Variablen binär sind. Was zählt, ist ihre Orthogonalität, die wir überprüfen können, um sicherzustellen, dass der Code wie erwartet funktioniert. Dies kann durch Untersuchen der Korrelationen geschehen. Tatsächlich ist die Korrelationsmatrix interessant : Die kleinen Koeffizienten weisen darauf hin
y
, dass sie mit keiner der Variablen zu tun haben, mit Ausnahme der ersten (beabsichtigten) und der nicht diagonalen Nullen, die die Orthogonalität der erklärenden Variablen bestätigen:Lassen Sie uns eine Reihe von Regressionen ausführen , wobei wir nur die erste Variable, dann die ersten beiden und so weiter verwenden. Zur Kürze und zum einfachen Vergleich zeige ich in jedem nur die Zeile für die erste Variable und den gesamten F-Test:
Sehen Sie sich an, wie (a) sich die Signifikanz der ersten Variablen kaum ändert, (a ') die erste Variable signifikant bleibt (p <0,05), auch wenn Sie mehrere Vergleiche durchführen ( z. B. wenden Sie Bonferroni an, indem Sie den nominellen p-Wert mit dem multiplizieren Anzahl der erklärenden Variablen), (b) der Koeffizient der ersten Variablen ändert sich kaum, aber (c) die Gesamtsignifikanz wächst exponentiell und steigt schnell auf ein nicht signifikantes Niveau an.
Ich interpretiere dies als Beweis dafür, dass das Einbeziehen von erklärenden Variablen, die weitgehend unabhängig von der abhängigen Variablen sind, den gesamten p-Wert der Regression "maskieren" kann. Wenn die neuen Variablen zu den vorhandenen und zu der abhängigen Variablen orthogonal sind, ändern sie die einzelnen p-Werte nicht. (Die kleinen Änderungen, die hier zu sehen sind, sind darauf zurückzuführen, dass der zufällige Fehler, der hinzugefügt
y
wird, zufällig leicht mit allen anderen Variablen korreliert.) Eine Lehre daraus ist, dass Sparsamkeit wertvoll ist : Die Verwendung so weniger Variablen wie nötig kann die Bedeutung von stärken die Ergebnisse.Ich sage nicht , dass dies notwendigerweise für den Datensatz in der Frage geschieht, über den wenig bekannt wurde. Das Wissen darüber, dass dieser Maskierungseffekt auftreten kann , sollte jedoch unsere Interpretation der Ergebnisse sowie unsere Strategien zur Variablenauswahl und Modellbildung beeinflussen.
quelle
rnorm(2^p, sd=2)
, beachten Sie bitte, dass das erste Argument die Anzahl der Begriffe ist, nicht der Mittelwert. Der Mittelwert ist standardmäßig Null und wurde daher nicht explizit angegeben.rnorm()
Dies ist häufig der Fall, wenn Ihre erklärenden Variablen einen hohen Grad an Kollinearität aufweisen. Die ANOVA F ist ein gemeinsamer Test, bei dem alle Regressoren gemeinsam nicht informativ sind . Wenn Ihre X ähnliche Informationen enthalten, kann das Modell die Erklärungskraft nicht dem einen oder anderen Regressor zuordnen, aber ihre Kombination kann einen Großteil der Variation in der Antwortvariablen erklären.
quelle