Aus einer Einführung in das statistische Lernen von James et al. Geht hervor, dass die LOOCV-Schätzung (Leave-One-Out-Cross-Validation) durch wobei .
Ohne Beweis besagt Gleichung (5.2), dass für eine Regression der kleinsten Quadrate oder des Polynoms (ob dies für die Regression nur einer Variablen gilt, ist mir unbekannt): wobei " ist der - te Einbau Wert von den ursprünglichen kleinsten Quadraten ( keine Ahnung , was das bedeutet, nebenbei gesagt , es verwendet , bedeutet all die Punkte in dem Datensatz?) und ist die Hebelwirkung“ , die definiert istyii
Wie beweist man das?
Mein Versuch: , dass aber auseinander liegen Aus diesem (und wenn ich mich erinnere, gilt diese Formel für nur für die einfache lineare Regression ...) bin ich mir nicht sicher, wie ich fortfahren soll.hi
quelle
Antworten:
Ich zeige das Ergebnis für jede multiple lineare Regression, unabhängig davon, ob die Regressoren Polynome von oder nicht. Tatsächlich zeigt es ein wenig mehr als das, was Sie gefragt haben, weil es zeigt, dass jedes LOOCV-Residuum mit dem entsprechenden Leverage-Weighted-Residuum aus der vollständigen Regression identisch ist und nicht nur, dass Sie den LOOCV-Fehler wie in (5.2) (dort) erhalten können könnten andere Wege sein, in denen die Durchschnittswerte übereinstimmen, auch wenn nicht jeder Begriff im Durchschnitt gleich ist).Xt
Ich erlaube mir, eine leicht angepasste Notation zu verwenden.
Wir zeigen zuerst, dass wobei die Schätzung unter Verwendung aller Daten ist und die Schätzung, wenn sie weggelassen wird , Beobachtung . Es sei als ein Zeilenvektor definiert, so dass . sind die Residuen.
Der Beweis verwendet das folgende matrixalgebraische Ergebnis.
Sei eine nicht singuläre Matrix, ein Vektor und ein Skalar. Wenn dannA b λ
Der Beweis von (B) folgt unmittelbar aus der Überprüfung von
Das folgende Ergebnis ist hilfreich, um (A) zu beweisen
Der Nachweis der (C): durch (b) haben wir, indem , Also finden wir∑Tt=1X′tXt=X′X
Der Beweis von (A) folgt nun aus (C): Als wir oder Also, where Die letzte Gleichheit folgt aus (C).
Nun . Multiply durch in (A) durch , fügen auf beiden Seiten und neu anordnen zu bekommen, mit die sich ergebenden Residuen unter Verwendung ( ), oderht=Xt(X′X)−1X′t Xt yt u^(t) β^(t) yt−Xtβ^(t)
quelle