Die Antwort lautet: Ja, die linearen Regressionskoeffizienten sind die Korrelationen der Prädiktoren mit der Antwort, jedoch nur, wenn Sie das richtige Koordinatensystem verwenden .
Um zu sehen, was ich meine, erinnere mich daran, dass wenn und zentriert und standardisiert sind, die Korrelation zwischen jedem und nur das Punktprodukt . Die Lösung der kleinsten Quadrate für die lineare Regression ist ebenfallsx1,x2,…,xnyxiyxtiy
β=(XtX)−1Xty
Wenn es so kommt, dass (die Identitätsmatrix) dannXtX=I
β=Xty
und wir stellen den Korrelationsvektor wieder her. Es ist oft attraktiv, ein Regressionsproblem in Bezug auf Prädiktoren formulieren , die erfüllen, indem geeignete lineare Kombinationen der ursprünglichen Prädiktoren gefunden werden, die diese Beziehung wahr machen ( oder äquivalent eine lineare Änderung der Koordinaten); Diese neuen Prädiktoren werden als Hauptkomponenten bezeichnet.x~iX~tX~=I
Insgesamt lautet die Antwort auf Ihre Frage also Ja, aber nur, wenn die Prädiktoren selbst nicht korreliert sind . Ansonsten der Ausdruck
XtXβ=Xty
zeigt, dass die Betas zusammen mit den Korrelationen zwischen den Prädiktoren selbst gemischt werden müssen, um die Prädiktor-Antwort-Korrelationen wiederherzustellen.
Als Randnotiz erklärt dies auch, warum das Ergebnis für eine variable lineare Regression immer wahr ist. Sobald der Prädiktorvektor standardisiert ist, gilt Folgendes:x
xt0x=∑ixi=0
Dabei ist der Schnittvektor aller. Die (zweispaltige) Datenmatrix erfüllt also automatisch , und das Ergebnis folgt.x0XXtX=I