Wie kann die Gratregressionslösung abgeleitet werden?

40

Ich habe einige Probleme mit der Herleitung der Lösung für die Gratregression.

Ich kenne die Regressionslösung ohne den Regularisierungsbegriff:

β=(XTX)1XTy.

λβ22

β=(XTX+λI)1XTy.
user34790
quelle

Antworten:

23

Es reicht aus, die Verlustfunktion durch Hinzufügen der Strafe zu ändern. In Matrixbegriffen wird die anfängliche quadratische Verlustfunktion Die Herleitung bezüglich führt zu der normalen Gleichung die zum Ridge-Schätzer führt.

(YXβ)T(YXβ)+λβTβ.
β
XTY=(XTX+λI)β
Johnny
quelle
1
Wie kommt es, dass die Ableitung von gleichλβTβλIβ
user34790
4
@ user34790 Ist es nicht. Es ist gleich . Aber die 2 annulliert mit ähnlichen 2s auf den anderen Ausdrücken. Natürlich ist der Faktor wie der Faktor 1 in der "regulären" Algebra. Sie können ihn beliebig multiplizieren, ohne etwas zu ändern. 2λβI
Bill
4
@bill: hier brauchst du das , um eine Matrix der richtigen Dimension zu erhalten, damit die Addition mit funktioniert : ist nur ein SkalarX T X λIXTXλ
Henry
47

Bauen wir auf dem, was wir wissen : Immer wenn die Modellmatrix , ist die Antwort -vector und der Parameter -vector ist , die ZielfunktionX n y p βn×pXnypβ

f(β)=(yXβ)(yXβ)

(das ist die Summe der Quadrate der Residuen) wird minimiert, wenn die Normalgleichungen löstβ

(XX)β=Xy.

Die Ridge-Regression fügt der Zielfunktion einen weiteren Begriff hinzu (normalerweise nachdem alle Variablen standardisiert wurden, um sie auf eine gemeinsame Basis zu stellen) und fordert zum Minimieren auf

(yXβ)(yXβ)+λββ

für eine nicht negative Konstante . Es ist die Summe der Quadrate der Residuen plus ein Vielfaches der Summe der Quadrate der Koeffizienten selbst (was deutlich macht, dass es ein globales Minimum gibt). Da , hat es eine positive Quadratwurzel .λ 0 ν 2 = λλλ0ν2=λ

Betrachten Sie die Matrix die mit Zeilen erweitert ist, die dem fachen der Identitätsmatrix :ν p × p IXνp×pI

X=(XνI)

Wenn der Vektor am Ende von ähnliche Weise mit Nullen erweitert wird, fügt das Matrixprodukt in der Zielfunktion zusätzliche Terme der Form zum ursprünglichen Ziel. Deshalbp y p ( 0 - ν β i ) 2 = λ β 2 iypyp(0νβi)2=λβi2

(yXβ)(yXβ)=(yXβ)(yXβ)+λββ.

Aus der Form des Ausdrucks für die linke Hand ergibt sich unmittelbar, dass die Normalgleichungen sind

(XX)β=Xy.

Da wir an das Ende von Nullen , ist die rechte Seite dieselbe wie . Auf der linken Seite wird zum ursprünglichen addiert . Daher vereinfachen sich die neuen Normalgleichungen zuX ' y ν 2 I = λ I X ' XyXyν2I=λIXX

(XX+λI)β=Xy.

Abgesehen davon, dass es konzeptionell wirtschaftlich ist - es sind keine neuen Manipulationen erforderlich, um dieses Ergebnis abzuleiten -, ist es auch rechnerisch wirtschaftlich: Ihre Software für gewöhnliche kleinste Fehlerquadrate führt auch eine Kammregression ohne jegliche Änderung durch. (Trotzdem kann es bei großen Problemen hilfreich sein, für diesen Zweck entwickelte Software zu verwenden, da die spezielle Struktur von ausgenutzt wird , um Ergebnisse für ein dichtes Intervall von effizient zu erhalten , sodass Sie untersuchen können, wie die Antworten variieren mit .) λ λXλλ

Eine weitere Schönheit dieser Betrachtungsweise ist, wie sie uns helfen kann, die Regression der Grate zu verstehen. Wenn wir die Regression wirklich verstehen wollen, hilft es fast immer, sie geometrisch zu denken: Die Spalten von bilden Vektoren in einem realen Vektorraum der Dimension . Durch anschließende bis , dadurch verlängert sie von -Vektoren zu -Vektoren wir Einbettungs in einem größeren Raum , indem "imaginäre", zueinander orthogonale Richtungen. Die erste Spalte vonp n ν I X n n + p R n R n + p p X ν p p th ν ν p ν 0XpnνIXnn+pRnRn+ppXerhält eine kleine imaginäre Komponente der Größe , wodurch sie verlängert und aus dem von den ursprünglichen Spalten erzeugten Raum verschoben wird . Die zweite, dritte, ..., -Spalte wird ebenfalls verlängert und um den gleichen Betrag aus dem ursprünglichen Raum verschoben - aber alle in unterschiedliche neue Richtungen. Folglich wird jede Kollinearität, die in den ursprünglichen Spalten vorhanden ist, sofort aufgelöst. Außerdem nähern sich diese neuen Vektoren umso mehr dem Individuum , je größer wirdνppthννpimaginäre Richtungen: Sie werden immer orthonormaler. Folglich wird die Lösung der Normalgleichungen sofort möglich und wird schnell numerisch stabil, wenn von zunimmt .ν0

Diese Beschreibung des Prozesses schlägt einige neuartige und kreative Ansätze zur Lösung der Probleme vor, für die Ridge Regression entwickelt wurde. Beispielsweise können Sie mit beliebigen Mitteln (wie etwa der Varianzzerlegung, die von Belsley, Kuh und Welsch in ihrem Buch über Regressionsdiagnostik von 1980 , Kapitel 3, beschrieben wurde) Untergruppen von nahezu kollinearen Spalten von identifizieren , in denen jede Untergruppe vorhanden ist ist fast orthogonal zu jedem anderen. Sie angrenzen so viele Zeilen zu müssen (und Nullen ) , da es Elemente in der größten Gruppe, von seinen Geschwistern eine neue „imaginäre“ Dimension zu widmen für jedes Element einer Gruppe zu verschieben weg: Sie brauchen keine imaginäre Dimensionen, um dies zu tun.X y pXXyp

whuber
quelle
2
Der letzte Autor des Buches ist Welsch, nicht Waliser.
Mark L. Stone
1
Das hat mich einfach umgehauen. Gibt es eine Diskussion darüber, was passiert, wenn dies außerhalb linearer Modelle verallgemeinert wird, dh auf glms? Die Strafe sollte nicht mit der Gratregression identisch sein ... aber diese Interpretation impliziert, dass sie immer noch ein potenzieller nützlicher Schätzer wäre!
Cliff AB
2
@Cliff Das ist ein sehr interessanter Vorschlag. Da GLM-Schätzungen jedoch komplizierter von abhängen und ihre Schätzer normalerweise nicht in der Form berücksichtigt werden können, wie sie es für OLS sind (wobei und ) kann es schwierig sein, eine nützliche Beziehung zwischen dem Auferlegen einer Straffunktion und dem Modifizieren der Spalten von herzustellen . Insbesondere ist unklar, wie die Werte in erhöht werden müssten, damit dies funktioniert. β = g ( X ) h ( y ) g ( X ) = ( X ' X ) - 1 X ' h ( y ) = y X yX
β^=g(X)h(y)
g(X)=(XX)1Xh(y)=yXy
whuber
1
Ja, es würde einige Überlegungen erfordern, um herauszufinden, was die Strafe ist, aber ich bin nicht so besorgt darüber. Die Idee von dem, was zu verwenden ist im Allgemeinen nicht leicht entweder ... außer vielleicht im Fall der logistischen Regression, wo wir hinzufügen könnten zwei y * ‚s; eine der Nullen und eine der Einsen. Diese Erweiterung wäre dann eine allgemeinere Version des "+2 Binomialschätzers" (es gibt einen genaueren Namen für diesen Schätzer, den ich ausblenden möchte, wenn Sie p aus einer Binomialverteilung unter Verwendung des posterioren Mittels als schätzen die Schätzung mit einheitlichem Vorrang auf p ). y ypp
Cliff AB
@Mark Danke für die Korrektur. Sie können sagen, ich war aus dem Gedächtnis ... :-).
whuber
20

minβ(YβTX)T(YβTX)+λβTβ

Nun beachte, dass und Gemeinsam gelangen wir zur Bedingung erster Ordnung Isolieren von ergibt die Lösung:

(YβTX)T(YβTX)β=2XT(YβTX)
λβTββ=2λβ.
XTY=XTXβ+λβ.
β
β=(XTX+λI)1XTY.
pthesling
quelle
9

Ich bin kürzlich im Zusammenhang mit P-Splines auf dieselbe Frage gestoßen, und da das Konzept dasselbe ist, möchte ich eine detailliertere Antwort auf die Herleitung des Gratschätzers geben.

Wir beginnen mit einer bestraften Kriteriumsfunktion, die sich von der klassischen OLS-Kriteriumsfunktion durch ihren Bestrafungsbegriff im letzten Summand unterscheidet:

CriterionRidge=i=1n(yixiTβ)2+λj=1pβj2

wo

  • p= Anzahl der im Modell verwendeten Kovariablen
  • xiTβ= Ihr standardmäßiger linearer Prädiktor
  • Der erste Summand stellt den MSE dar (Quadratische Abweichung der Vorhersage vom tatsächlichen Wert), den wir wie gewohnt minimieren möchten
  • Der zweite Summand stellt die Bestrafung dar, die wir auf die Koeffizienten anwenden. Hier befinden wir uns im Ridge-Kontext, der ein euklidisches Distanzmaß und damit den Grad 2 im Strafbegriff impliziert. Im Falle einer Lasso-Bestrafung würden wir einen Grad von 1 anwenden und einen völlig anderen Schätzer ergeben.

Wir können dieses Kriterium in Matrixnotation umschreiben und weiter aufschlüsseln:

CriterionRidge=(yXβ)T(yXβ)+λβTβ

=yTyβTXTyyTXβ+βTxTXβ+λβTβ

=yTyβTXTyβTXTy+βTXTXβ+βTλIβ wobei die Identitätsmatrix istI

=yTy2βTXTy+βT(XTX+λI)β

Jetzt suchen wir nach der , die unser Kriterium minimiert. Unter anderem verwenden wir die Matrixdifferenzierungsregel die wir können gelten hier als : βxTAxx=(A+AT)x=A symmetric2Ax(XTX+λI)Rn×n

CriterionRidgeβ=2XTy+2(XTX+λI)β=!0

(XTX+λI)β=XTy

et voilàβ^=(XTX+λI)1XTy

Jann Goschenhofer
quelle
@Jahn, können Sie bitte erklären , wie wurde ? Ich denke, Sie haben gerade die Transponierung angewendet, richtig. Sie können die Transponierung jedoch nicht nur auf einen Term anwenden, ohne sie auf alle Gleichungen anzuwenden. Was vermisse ich hier? & bgr; T X T y
yTXβ
βTXTy
Theateist
1
@theateist Ein transponierter Skalar ist der gleiche Skalar.
Konstantin
2

Es gibt ein paar wichtige Dinge, die in den gegebenen Antworten fehlen.

  1. Die Lösung für ergibt sich aus der notwendigen Bedingung erster Ordnung:βfridge(β,λ)β=0β=(XTX+λI)1XTYfridge(β,λ)

  2. fridge(β,λ)fOLS(β)=(YβTX)T(YβTX)||β||22tfridge(β,λ)fOLS(β)||β||22

β

Davor Josipovic
quelle