Können standardisierte

9

Ich versuche, die Ergebnisse eines Artikels zu interpretieren, in dem mehrere Regressionen angewendet wurden, um verschiedene Ergebnisse vorherzusagen. Die -Werte (standardisierte B-Koeffizienten, definiert als β x 1 = B x 1S D x 1)β wobeiydie abhängige Variable undx1ein Prädiktor ist) berichtet, scheint nicht mit dem gemeldetenR2übereinzustimmen:βx1=Bx1SDx1SDyyx1R2

Geben Sie hier die Bildbeschreibung ein

Trotz s von -0.83, -0.29, -0.16, -0.43, 0.25, -0.29 , und die ausgewiesenen R 2 ist nur 0,20.βR2

Auch die drei Prädiktoren: Gewicht, BMI und Fettanteil sind multikollinear und korrelieren innerhalb der Geschlechter um r = 0,8-0,9 miteinander.

Ist der -Wert mit diesen βs plausibel oder gibt es keine direkte Beziehung zwischen den βs und den R 2 ?R2ββR2

Könnten Probleme mit den multikollinearen Prädiktoren zusätzlich das eines vierten Prädiktors (VO2max) beeinflussen, der mit den oben genannten drei Variablen um r = 0,4 korreliert?β

Sakari Jukarainen
quelle
Was ist in diesem Zusammenhang? Ein Beta-Koeffizient (standardisierte Regression)? Oder etwas anderes? Wenn ja, dann können Sie nicht wirklich sagen, dass alles, was Sie bekommen, eine Interpretation in Bezug auf Standardabweichungen ist. Die Tatsache, dass der Koeffizient große Effekte impliziert, impliziert keinen hohen R 2 -WertβR2
Repmat
1
ß steht für standardisierte b-Koeffizienten. Für einen 1-Prädiktor-Fall ist ß gleich Pearsons r, das in direktem Zusammenhang mit dem R-Quadrat steht. Warum implizieren hohe ß in diesem multivariaten Fall jedoch kein hohes R-Quadrat?
Sakari Jukarainen
2
Nein, in einem Regressorfall ist nicht gleich der Pearson-Korrelation: β = Cov ( y , x )β. Die Beziehung zwischenβs undR2ist nicht so einfach. β=Cov(y,x)Var(x)Cov(y,x)Var(y)×Var(x)=ρ(y,x)βR2
Richard Hardy
5
@RichardHardy Ich vermute, dass die Verwirrung darin besteht, dass Sakari als standardisierten Regressionskoeffizienten definiert hat . In einer bivariaten linearen Regression ist der Regressionskoeffizient ( b in Sakaris Notation) r x y s yβb , wobeirdie Korrelation undsdie Standardabweichung ist. Um einen Regressionskoeffizienten zu standardisieren, teilen wir den Koeffizienten mit der Standardabweichung vonyund multiplizieren mit dieser Standardabweichung vonx, sodass nur die Korrelation übrig bleibt. Sakari hat also recht. rxysysxrsyx
Maarten Buis
Ich verstehe immer noch nicht, warum Sie das für falsch halten? Wenn das Papier einige zusammenfassende Statistiken enthält, können Sie einfach überprüfen, ob sich die Zahlen summieren. Sie haben sogar die Formel dafür angegeben. Sie können nicht einfach deshalb schließen, weil die Effekte in abosulten Begriffen groß sind, dass die Modelle die Varianz in y gut erklären.
Repmat

Antworten:

17

Die geometrische Interpretation der gewöhnlichen Regression der kleinsten Quadrate liefert den erforderlichen Einblick.

Das meiste, was wir wissen müssen, kann im Fall von zwei Regressoren und x 2 mit der Antwort y gesehen werden . Die standardisierten Koeffizienten oder "Betas" entstehen, wenn alle drei Vektoren auf eine gemeinsame Länge standardisiert sind (die wir als Einheit betrachten können). Somit sind x 1 und x 2 Einheitsvektoren in einer Ebene E 2 - sie befinden sich auf dem Einheitskreis - und y ist ein Einheitsvektor in einem dreidimensionalen euklidischen Raum E 3 , der diese Ebene enthält. Der Einbau Wert y ist die orthogonal (senkrecht) Projektionx1x2yx1x2E.2yE.3y^ auf E 2 . Da R 2 einfach die quadratische Länge ist y , brauchen wir nicht einmal alle drei Dimensionenvisualisieren: alle Informationenwir benötigenkönnen in dieser Ebene gezogen werden.yE.2R.2y^

Orthogonale Regressoren

Die schönste Situation ist, wenn die Regressoren wie in der ersten Abbildung orthogonal sind.

Abbildung 1 zeigt die Regressoren und $ \ hat y $ als Vektoren in einer Ebene.

In dieser und den restlichen Abbildungen werde ich die Einheitsscheibe durchgehend in Weiß und die Regressoren als schwarze Pfeile zeichnen. zeigt immer direkt nach rechts. Die dicken Pfeile zeigen die roten Komponenten von y in der x 1 und x 2 Richtungen: das heißt, β 1 x 1 und β 2 x 2 . Die Länge von y ist der Radius des grauen Kreises , auf dem es liegt - aber denken Sie daran , dass R 2 die istx1y^x1x2β1x1β2x2y^R.2 quadratisch dieser Länge.

Der Satz von Pythagoras behauptet

R.2=|y^|2=|β1x1|2+|β2x2|2=β12(1)+β22(1)=β12+β22.

Da der Satz von Pythagoras in einer beliebigen Anzahl von Dimensionen gilt, verallgemeinert sich diese Argumentation auf eine beliebige Anzahl von Regressoren und liefert unser erstes Ergebnis:

Wenn die Regressoren orthogonal sind, entspricht der Summe der Quadrate der Betas.R.2

Eine unmittelbare Folge ist, dass wenn es nur einen Regressor gibt - univariate Regression - das Quadrat der standardisierten Steigung ist.R.2

Korreliert

Negativ korrelierte Regressoren treffen sich in Winkeln, die größer als ein rechter Winkel sind.

Abbildung 2 zeigt negativ korrelierte Regressoren

In diesem Bild ist visuell ersichtlich, dass die Summe der Quadrate der Betas streng größer als . Dies kann algebraisch unter Verwendung des Kosinusgesetzes oder durch Arbeiten mit einer Matrixlösung der Normalgleichungen bewiesen werden.R.2

Indem fast parallel die beiden Regressoren, können wir die Position y in der Nähe des Ursprungs (für ein R 2 in der Nähe von 0 ) , während er große Komponenten im haben weiterhin x 1 und x 2 Richtung. Somit gibt es keine Begrenzung, wie klein R 2 sein könnte.y^R.20x1x2R.2

Zahl

Erinnern wir uns an dieses offensichtliche Ergebnis, unsere zweite Allgemeinheit:

Wenn Regressoren korreliert sind, kann beliebig kleiner sein als die Summe der Quadrate der Betas.R.2

Dies ist jedoch keine universelle Beziehung, wie die nächste Abbildung zeigt.

Abbildung 3 zeigt negativ korrelierte Regressoren, aber Betas haben entgegengesetzte Vorzeichen.

Jetzt überschreitet die Summe der Quadrate der Betas strikt. Indem die beiden Regressoren eng zusammen und halten y zwischen ihnen, können wir die Betas machen beide Ansatz 1 / 2 , auch wenn R 2 nahe an ist 1 . Weitere Analysen erfordern möglicherweise etwas Algebra: Ich nehme das unten auf.R.2y^1/.2R.21

Ich überlasse es Ihrer Vorstellungskraft, ähnliche Beispiele mit positiv korrelierten Regressoren zu konstruieren, die sich dabei in spitzen Winkeln treffen.

Beachten Sie, dass diese Schlussfolgerungen unvollständig sind: Es gibt Grenzen, wie viel weniger mit der Summe der Quadrate der Betas verglichen werden kann. Insbesondere können Sie durch sorgfältige Prüfung der Möglichkeiten (für eine Regression mit zwei Regressoren) den Schluss ziehen, dassR.2

Wenn die Regressoren positiv korreliert sind und die Betas ein gemeinsames Vorzeichen haben oder wenn die Regressoren negativ korreliert sind und die Betas unterschiedliche Vorzeichen haben, muss mindestens so groß sein wie die Summe der Quadrate der Betas. R.2


Algebraische Ergebnisse

Im Allgemeinen seien die Regressoren (Spaltenvektoren) und die Antwort y . Standardisierungsmittel (a) jedes ist orthogonal zum Vektor ( 1 , 1 , , 1 ) ' und (b) sie haben Einheitslängen:x1,x2,,xpy(1,1,,1)'

|xich|2=|y|2=1.

Setze die Spaltenvektoren zu einer n × p- Matrix X zusammen . Die Regeln der Matrixmultiplikation implizieren diesxichn×pX.

Σ=X.'X.

ist die Korrelationsmatrix von . Die Betas sind durch die Normalgleichungen gegeben,xich

β=(X.'X.)- -1X.'y=Σ- -1(X.'y).

Darüber hinaus ist per Definition die Passform

y^=X.β=X.(Σ- -1X.'y).

Seine quadratische Länge ergibt per Definition :R.2

R.2=|y^|2=y^'y^=(X.β)'(X.β)=β'(X.'X.)β=β'Σβ.

Die geometrische Analyse ergab, dass wir nach Ungleichungen suchen, die betreffen.R.2

ich=1pβich2=β'β.

L.2EINp2

|EIN|22=ich,jeinichj2=tr(EIN'EIN)=tr(EINEIN').

Die Cauchy-Schwarz-Ungleichung impliziert

R.2=tr(R.2)=tr(β'Σβ)=tr(Σββ')|Σ|2|ββ'|2=|Σ|2β'β.

1p2p×pΣ|Σ|21×p2=p

R.2pβ'β.

xich

R.2R.2/.p


Schlussfolgerungen

R.2y^R.2

1.1301R.21

- -0,830,69R.20,20VO2max

R.2x1x2y^x1x2yum unbekannte Beträge (abhängig davon, wie alle drei mit den Kovariaten zusammenhängen), so dass wir fast nichts über die tatsächlichen Größen der Vektoren wissen, mit denen wir arbeiten.

whuber
quelle
y^y^
@amoeba Du hast ganz recht. Ich war zu voreilig bei der Erstellung dieser Bilder! Ich werde diesen Beitrag (hoffentlich vorübergehend) löschen, bis ich die Gelegenheit bekomme, das Problem zu beheben. Vielen Dank für den Hinweis.
whuber
@Amoeba Ich habe die Bilder korrigiert und die Analyse entsprechend geändert. Obwohl sich die Details erheblich geändert haben, bleiben die Schlussfolgerungen dieselben.
whuber
1
@amoeba Wieder bist du richtig. Mit dem Risiko, interessierte Leser zu verlieren, aber jetzt gezwungen zu sein, die geometrische Intuition zu quantifizieren, habe ich diese Schlussfolgerung verschärft und mit ein wenig Algebra begründet. (Ich vertraue darauf, dass die Algebra korrekt ist!)
whuber
1
Vielen Dank! Als Nebenbemerkung korreliert VO2max negativ mit Gewicht und BMI, da sie mit einer höheren Muskelmasse verbunden sind. In der genannten Tabelle entspricht VO2max tatsächlich VO2max geteilt durch das Gewicht (was eine schlechte Methode ist, um VO2max auf die Körpergröße zu skalieren). Das VO2max / Gewicht in der Tabelle ist mit allen anderen Prädiktoren außer dem Geschlecht negativ korreliert, was, wie Sie erwähnt haben, das hohe ß, aber das niedrige R-Quadrat erklären könnte.
Sakari Jukarainen