Für eine einfache lineare Regression kann der Regressionskoeffizient direkt aus der Varianz-Kovarianz-Matrix berechnet werden , und zwar durch wobei der Index der abhängigen Variablen und der Index der erklärenden Variablen ist.C d , e de
Wenn man nur die Kovarianzmatrix hat, ist es möglich, die Koeffizienten für ein Modell mit mehreren erklärenden Variablen zu berechnen?
ETA: Für zwei erklärende Variablen scheint es, dass und analog für . Ich sehe nicht sofort, wie man dies auf drei oder mehr Variablen erweitert. β2
Antworten:
Ja, die Kovarianzmatrix aller Variablen - erklärend und antwortend - enthält die Informationen, die zum Auffinden aller Koeffizienten erforderlich sind, vorausgesetzt, das Modell enthält einen (konstanten) Intercept-Term. (Obwohl die Kovarianzen keine Informationen über den konstanten Term liefern, können sie den Daten entnommen werden.)
Analyse
Die Daten für die erklärenden Variablen seien als dimensionale Spaltenvektoren und die Antwortvariable als Spaltenvektor , was als Realisierung einer Zufallsvariablen . Das gewöhnliche kleinste Quadrat schätzt der Koeffizienten im Modellx 1 , x 2 , ... , x p y Y βn x1, x2, … , Xp y Y. β^
werden erhalten, indem die Spaltenvektoren zu einem Array und das System linearer Gleichungen gelöst werdenX 0 = ( 1 , 1 , … , 1 ) ' , X 1 , … , X p n × p + 1 Xp + 1 X0= ( 1 , 1 , … , 1 )′, X1, … , Xp n × p + 1 X
Es entspricht dem System
Die Gaußsche Eliminierung löst dieses System. Es wird fortgefahren, indem die Matrix und der -Vektor zu einem Array und zeilenreduzierend. 1p + 1 × p + 1 p+111nX′X p + 1 p+1×p+2A1nX′y p + 1 × p + 2 EIN
Im ersten Schritt wird . Wenn festgestellt wird, dass dies ungleich Null ist, subtrahiert es geeignete Vielfache der ersten Zeile von von den verbleibenden Zeilen, um die verbleibenden Einträge in seiner ersten Spalte auf Null zu setzen. Diese Vielfachen sind und die vom Eintrag subtrahierte Zahl ist gleich . Dies ist nur die Formel für die Kovarianz von und . Darüber hinaus ist die an der Position verbleibende Zahl gleichA11n( X′X)11=1nX′0X0= 1 EIN Ai+1,j+1=X ' i Xj ¯ X i ¯ X jXiXji1nX′0Xich= X¯¯¯¯ich EINi + 1 , j + 1=X′ichXj X¯¯¯¯ichX¯¯¯¯j Xich Xj 1i + 1 , p + 2 1nX′ichy- Xich¯¯¯¯¯¯y¯¯¯ , die Kovarianz von mit . yXich y
Somit wird das System nach dem ersten Schritt der Gaußschen Eliminierung auf das Lösen reduziert
und offensichtlich - da alle Koeffizienten Kovarianzen sind - kann diese Lösung aus der Kovarianzmatrix aller Variablen gefunden werden.
(Wenn invertierbar ist, kann die Lösung geschrieben werden: . Die in der Frage angegebenen Formeln sind Spezialfälle davon, wenn und explizite Schreiben solcher Formeln wird mit wachsendem immer komplexer . Außerdem sind sie für die numerische Berechnung unterlegen, die am besten durch Lösen des Gleichungssystems und nicht durch Invertieren der Matrix .)C - 1 ( Cov ( X i , y ) ) ' p = 1 p = 2 p CC C- 1( Cov ( Xich, y) )′ p = 1 p = 2 p C
Der konstante Term ist die Differenz zwischen dem Mittelwert von und den aus den Schätzungen vorhergesagten Mittelwerten .X βy Xβ^
Beispiel
Zur Veranschaulichung werden im folgenden
R
Code einige Daten erstellt, deren Kovarianzen berechnet und die Koeffizientenschätzungen für die kleinsten Quadrate nur anhand dieser Informationen ermittelt. Sie werden mit den Schätzungen verglichen, die vom Schätzer der kleinsten Quadrate erhalten wurdenlm
.Die Ausgabe zeigt Übereinstimmung zwischen den beiden Methoden:
quelle
cov(z)
y
undx
und berechnetbeta.hat
. Diey
undx
sind Teil der Originaldaten. Ist es möglich, den Achsenabschnitt allein aus der Kovarianzmatrix und den Mitteln abzuleiten? Könnten Sie bitte die Notation angeben?