Verallgemeinerte kleinste Quadrate: von Regressionskoeffizienten zu Korrelationskoeffizienten?

10

Für kleinste Quadrate mit einem Prädiktor:

y=βx+ϵ

Wenn und vor dem Anpassen standardisiert sind (dh ), dann:xyN(0,1)

  • β ist der gleiche wie der Pearson-Korrelationskoeffizient .r
  • β ist in der reflektierten Regression dasselbe:x=βy+ϵ

Gilt das auch für generalisierte kleinste Quadrate (GLS)? Wenn ich meine Daten standardisiere, kann ich dann Korrelationskoeffizienten direkt aus den Regressionskoeffizienten erhalten?

Durch das Experimentieren mit Daten führt das reflektierte GLS zu unterschiedlichen Koeffizienten, und ich bin mir auch nicht sicher, ob ich glaube, dass die Regressionskoeffizienten mit meinen erwarteten Korrelationswerten übereinstimmen. Ich weiß, dass Leute GLS-Korrelationskoeffizienten zitieren, also frage ich mich, wie sie zu ihnen kommen und was sie wirklich bedeuten?β

sqrt
quelle

Antworten:

4

Die Antwort lautet: Ja, die linearen Regressionskoeffizienten sind die Korrelationen der Prädiktoren mit der Antwort, jedoch nur, wenn Sie das richtige Koordinatensystem verwenden .

Um zu sehen, was ich meine, erinnere mich daran, dass wenn und zentriert und standardisiert sind, die Korrelation zwischen jedem und nur das Punktprodukt . Die Lösung der kleinsten Quadrate für die lineare Regression ist ebenfallsx1,x2,,xnyxiyxity

β=(XtX)1Xty

Wenn es so kommt, dass (die Identitätsmatrix) dannXtX=I

β=Xty

und wir stellen den Korrelationsvektor wieder her. Es ist oft attraktiv, ein Regressionsproblem in Bezug auf Prädiktoren formulieren , die erfüllen, indem geeignete lineare Kombinationen der ursprünglichen Prädiktoren gefunden werden, die diese Beziehung wahr machen ( oder äquivalent eine lineare Änderung der Koordinaten); Diese neuen Prädiktoren werden als Hauptkomponenten bezeichnet.x~iX~tX~=I

Insgesamt lautet die Antwort auf Ihre Frage also Ja, aber nur, wenn die Prädiktoren selbst nicht korreliert sind . Ansonsten der Ausdruck

XtXβ=Xty

zeigt, dass die Betas zusammen mit den Korrelationen zwischen den Prädiktoren selbst gemischt werden müssen, um die Prädiktor-Antwort-Korrelationen wiederherzustellen.

Als Randnotiz erklärt dies auch, warum das Ergebnis für eine variable lineare Regression immer wahr ist. Sobald der Prädiktorvektor standardisiert ist, gilt Folgendes:x

x0tx=ixi=0

Dabei ist der Schnittvektor aller. Die (zweispaltige) Datenmatrix erfüllt also automatisch , und das Ergebnis folgt.x0XXtX=I

Matthew Drury
quelle