Ich habe mit der Beziehung zwischen den Fehlern und den Residuen mithilfe einiger einfacher Simulationen in R experimentiert. Eine Sache, die ich gefunden habe, ist, dass ich unabhängig von der Stichprobengröße oder der Fehlervarianz immer genau für die Steigung erhalte, wenn Sie das Modell anpassen
Hier ist die Simulation, die ich gemacht habe:
n <- 10
s <- 2.7
x <- rnorm(n)
e <- rnorm(n,sd=s)
y <- 0.3 + 1.2*x + e
model <- lm(y ~ x)
r <- model$res
summary( lm(e ~ r) )
e
und r
sind stark (aber nicht perfekt) korreliert, selbst für kleine Stichproben, aber ich kann nicht herausfinden, warum dies automatisch geschieht. Eine mathematische oder geometrische Erklärung wäre willkommen.
regression
least-squares
residuals
GoF_Logistic
quelle
quelle
lm(y~r)
,lm(e~r)
undlm(r~r)
, die daher alle gleich sein müssen. Letzteres ist offensichtlich . Probieren Sie alle drei Befehle aus, um zu sehen. Damit der letzte funktioniert , müssen Sie eine Kopie von erstellen , z . Weitere Informationen zu geometrischen Regressionsdiagrammen finden Sie unter stats.stackexchange.com/a/113207 .R
r
s<-r;lm(r~s)
Antworten:
Die Antwort von whuber ist großartig! (+1) Ich habe das Problem mit der mir bekanntesten Notation herausgearbeitet und festgestellt, dass es sich lohnen könnte, die (weniger interessante, routinemäßigere) Ableitung hier aufzunehmen.
Sei das Regressionsmodell, für und das Rauschen. Dann hat die Regression von gegen die Spalten von die normalen Gleichungen was Schätzungen ergibtDaher hat die Regression Residuen für .y=Xβ∗+ϵ X∈Rn×p ϵ y X XT(y−Xβ^)=0,
Das Regressieren von auf führt zu einer geschätzten Steigung, die durch da symmetrisch und idempotent ist und fast sicher ist.ϵ r I-Hϵ∉im(X)
Ferner gilt dieses Argument auch, wenn wir einen Achsenabschnitt einschließen, wenn wir die Regression der Fehler an den Residuen durchführen, wenn ein Achsenabschnitt in der ursprünglichen Regression enthalten war, da die Kovariaten orthogonal sind (dh , aus den normalen Gleichungen ).1Tr=0
quelle
Entfernen Sie zunächst die Konstante aus den Variablen, ohne die konzeptionelle (oder praktische) Allgemeinheit zu verlieren, wie unter Wie genau steuert man "für andere Variablen" beschrieben beschrieben . Sei der Regressor, der Fehler, die Antwort, die Schätzung der kleinsten Quadrate von und die Residuen. Alle diese Vektoren liegen in derselben Ebene, sodass wir Bilder von ihnen zeichnen können. Die Situation kann folgendermaßen dargestellt werden, wobei den Ursprung bezeichnet:x e Y=βx+e b β r=Y−bx O
Dieses Bild wurde beginnend mit und dann der Fehler hinzugefügt , um zu erzeugen . Die Höhe wurde dann auf die Basis und traf sie bei der Schätzung der kleinsten Quadrate . Die Höhe ist eindeutig der und wurde daher mit .βx e Y bx Y−bx r
Die Basis des Dreiecks ist parallel zum Regressorvektor . Die Höhen der Seiten und sind die Höhe des Dreiecks selbst. Per Definition ist der Rest senkrecht zur Basis: Daher können Abstände von der Basis durch Projektion auf . Somit kann die Höhe des Dreiecks auf eine von drei Arten gefunden werden: Regression von gegen (Finden der Höhe von ); Regression von gegen (Ermittlung der Höhe von ) oder Regression von gegen (Ermittlung der Höhe von )x OY (βx)Y r r Y r Y e r e r r r ). Alle drei Werte müssen alle gleich sein (wie Sie durch Ausführen dieser Regressionen überprüfen können). Letzteres ist offensichtlich , QED .1
Für diejenigen, die Algebra bevorzugen, können wir diese geometrische Analyse in eine elegante algebraische Demonstration umwandeln. Beobachten Sie einfach, dass , und alle kongruent modulo des von erzeugten Unterraums sind . Daher müssen sie gleich Projektionen in jedem Raum haben , die orthogonal zu , wie die von erzeugten , wo die Projektion von Koeffizienten hat , QED . (Statistisch gesehen "nehmen" wir einfach die Komponente von in allen drei Ausdrücken heraus, wobei jeweils übrig .)e = r + ( β - b ) x Y = e + β x = r + ( 2 β - b ) x x x r r 1 x rr e=r+(β−b)x Y=e+βx=r+(2β−b)x x x r r 1 x r
quelle