Ich versuche, ein Problem für die kleinste Winkelregression (LAR) zu lösen. Dies ist ein Problem 3.23 auf Seite 97 von Hastie et al., Elements of Statistical Learning, 2nd. ed. (5. Druck) .
Betrachten Sie ein Regressionsproblem mit allen Variablen und Antworten mit dem Mittelwert Null und der Standardabweichung Eins. Angenommen, jede Variable hat eine identische absolute Korrelation mit der Antwort:
Sei der Koeffizient der kleinsten Quadrate von auf und sei für . yXu(α)=αX β α∈[0,1]
Ich werde gebeten zu zeigen, dass und ich habe Probleme damit. Beachten Sie, dass dies im Grunde genommen bedeuten kann, dass die Korrelationen jedes mit den Residuen gleich groß bleiben, wenn wir in Richtung voranschreiten .x j u
Ich weiß auch nicht, wie ich zeigen soll, dass die Korrelationen gleich sind:
Alle Hinweise wäre sehr dankbar!
Antworten:
Dies ist Problem 3.23 auf Seite 97 von Hastie et al., Elements of Statistical Learning , 2nd. ed. (5. Druck) .
Der Schlüssel zu diesem Problem ist ein gutes Verständnis der gewöhnlichen kleinsten Quadrate (dh der linearen Regression), insbesondere der Orthogonalität der angepassten Werte und der Residuen.
Orthogonalitäts-Lemma : Sei die n × p- Entwurfsmatrix, y der Antwortvektor und β die (wahren) Parameter. Unter der Annahme , X ist Voll Rang (die wir im ganzen Gebäude ), die OLS - Schätzungen von β sind β = ( X T X ) - 1 X T y . Die angepaßten Werte sind Y = X ( X T X ) - 1 X T y . dann ⟨X. n×p y β X β β^= ( X.T.X.)- 1X.T.y y^= X.( X.T.X.)- 1X.T.y . Das heißt, die angepassten Werte sindorthogonalzu den Residuen. Dies folgtdaXT(y - y )=XTy-XTX(XTX)-1XTy=XTy-XT⟨ y^, y- y^⟩ = Y^T.( y- y^) = 0 .X.T.( y- y^) = X.T.y- X.T.X.( X.T.X.)- 1X.T.y= X.T.y- X.T.y= 0
Nun sei ein Spaltenvektor, so dass x j die j- te Spalte von X ist . Die angenommenen Bedingungen sind:xj xj j X.
Beachten Sie, dass insbesondere die letzte Anweisung des Orthogonalität Lemma identisch mit für alle j .⟨ xj, y- y^⟩ = 0 j
Die Korrelationen sind gebunden
Nun . So, ⟨ x j , y - u ( a ) ⟩ = ⟨ x j , ( 1 - α ) y + α y - α y ⟩ = ( 1 - α ) ⟨ x j , y ⟩ + α ⟨u ( α ) = α X.β^= α y^
und der zweite Term auf der rechten Seite gleich Null von derOrthogonalität Lemmas, so
1
Explizite Form der (absoluten) Korrelation
Beachten Sie das
Wenn Sie das alles zusammenfügen, werden Sie feststellen, dass wir bekommen
Epilog : Konzentrieren Sie sich hier auf die Ideen. Es gibt wirklich nur einen. Das Orthogonalitäts-Lemma erledigt fast die gesamte Arbeit für uns. Der Rest ist nur Algebra, Notation und die Fähigkeit, die letzten beiden zum Laufen zu bringen.
quelle