Ich nehme an einem Kurs über Regressionsmodelle teil, und eine der Eigenschaften, die für die lineare Regression bereitgestellt werden, ist, dass die Residuen immer auf Null summieren, wenn ein Abschnitt enthalten ist.
Kann jemand eine gute Erklärung dafür liefern, warum dies der Fall ist?
regression
residuals
dts86
quelle
quelle
Antworten:
Dies folgt direkt aus den normalen Gleichungen, dh den Gleichungen, die der OLS-Schätzer löst,
Der Vektor in den Klammern ist natürlich der Restvektor oder die Projektion von auf das orthogonale Komplement des Spaltenraums von X , wenn Sie lineare Algebra mögen. Die Aufnahme eines Einsenvektors in die X- Matrix, die übrigens nicht wie herkömmlich in der ersten Spalte stehen muss, führt zuy X X
Im Zwei-Variablen-Problem ist dies noch einfacher zu sehen, da die Minimierung der Summe der quadratischen Residuen uns zu bringt
wenn wir die Ableitung in Bezug auf den Achsenabschnitt nehmen. Daraus erhalten wir dann den bekannten Schätzer
wo wir wieder sehen, dass die Konstruktion unserer Schätzer diese Bedingung auferlegt.
quelle
Falls Sie eine eher intuitive Erklärung suchen.
In gewissem Sinne ist das lineare Regressionsmodell nichts anderes als ein schickes Mittel. Um das arithmetische Mittelx¯ über einige Werte x1,x2,…,xn bestimmen, finden wir einen Wert, der ein Maß für die Zentralität in dem Sinne ist, dass die Summe aller Abweichungen (wobei jede Abweichung als ui=xi−x¯ ) rechts vom Mittelwert sind gleich der Summe aller Abweichungen links von diesem Mittelwert. Es gibt keinen inhärenten Grund, warum dieses Maß gut ist, geschweige denn, um den Mittelwert einer Stichprobe zu beschreiben, aber es ist sicherlich intuitiv und praktisch. Der wichtige Punkt ist, dass durch die Definition des arithmetischen Mittels auf diese Weise zwangsläufig folgt, dass nach der Bildung des arithmetischen Mittels alle Abweichungen von diesem Mittel per Definition auf Null summiert werden müssen!
Bei der linearen Regression ist dies nicht anders. Wir passen die Linie so an, dass die Summe aller Differenzen zwischen unseren angepassten Werten (die auf der Regressionslinie liegen) und den tatsächlichen Werten, die über der Linie liegen, genau der Summe aller Differenzen zwischen der Regressionslinie und allen Werten unter der Regressionslinie entspricht Linie. Auch hier gibt es keinen inhärenten Grund, warum dies der beste Weg ist, eine Passform zu konstruieren, aber es ist einfach und intuitiv ansprechend. Genau wie beim arithmetischen Mittel: Wenn wir unsere angepassten Werte auf diese Weise konstruieren, folgt zwangsläufig konstruktionsbedingt, dass alle Abweichungen von dieser Linie auf Null summieren müssen, da dies sonst keine OLS-Regession wäre.
quelle
Wenn ein Schnittpunkt in multiplen linearen Regressiony^i=β0+β1xi,1+β2xi,2+…+βpxi,p
in Least Squares Regression, die Summe der Quadrate der Der Fehler wird minimiert.
SSE=∑i=1n(ei)2=∑i=1n(yi−yi^)2=∑i=1n(yi−β0−β1xi,1−β2xi,2−…−βpxi,p)2
Nehmen Sie die partielle Ableitung von SSE in Bezug aufβ0 und Setzen auf Null.
∂SSE∂β0=∑i=1n2(yi−β0−β1xi,1−β2xi,2−…−βpxi,p)1(−1)=−2∑i=1nei=0
Daher summieren sich die Residuen immer zu Null, wenn ein Abschnitt in der linearen Regression enthalten ist.
quelle
Eine Schlüsselbeobachtung ist , dass , weil das Modell intercept hat,1 , die die erste Spalte der Designmatrix X , geschrieben werden kann als
1=Xe,
wobei e ein Spaltenvektor mit Nullen , aber der ersten Komponente ist. Beachten Sie auch, in Matrixnotation, die Summe der Residuen ist nur 1T(y−y^) .
Deshalb,====1T(y−y^)=1T(I−H)yeTXT(I−X(XTX)−1XT)yeT(XT−XTX(XTX)−1XT)yeT(XT−XT)y0.
quelle
A simple derivation using matrix algebra:
Then
was gleich Null ist, wennMx und 1 sind orthogonal, was der Fall ist, wenn die Matrix der Regressoren x enthält den Achsenabschnitt (ein Vektor von 1 , tatsächlich).
quelle
..
quelle