Ich kann nicht herausfinden, wie die Formel 7.14 auf Seite 224 von Die Elemente des statistischen Lernens abgeleitet wird. Kann mir jemand helfen, es herauszufinden?
7
Ich kann nicht herausfinden, wie die Formel 7.14 auf Seite 224 von Die Elemente des statistischen Lernens abgeleitet wird. Kann mir jemand helfen, es herauszufinden?
Antworten:
Das Ergebnis ist im Wesentlichen auf die Eigenschaft des besten linearen Schätzers zurückzuführen. Beachten Sie, dass wir hier nicht annehmen, dass linear ist. Dennoch können wir den linearen Prädiktor finden , die in etwa die besten.f(X) f
Erinnern Sie sich an die Definition von : . Wir können den theoretischen Schätzer für ableiten : wobei wir angenommen haben, dass invertierbar ist. Ich nenne es theoretischen Schätzer, da wir (in realen Szenarien sowieso) nie die Randverteilung von X oderβ∗ β∗=argminβE[(f(X)−XTβ)2] β∗ g(β)=E[(f(X)−XTβ)2]=E[f2(X)]−2βTE[Xf(X)]+βTE[XXT]β⟹∂g(β)∂β=−2E[Xf(X)]+2E[XXT]β=0⟹β∗=E[XXT]−1E[Xf(X)], E[XXT] P(X) Wir werden diese Erwartungen also nicht kennen. Sie sollten sich immer noch an die Ähnlichkeit dieses Schätzers mit dem ordinären Schätzer der kleinsten Quadrate erinnern (wenn Sie durch ersetzen , ist der OLS-Schätzer der Plugin-äquivalente Schätzer. Am Ende zeige ich, dass sie für die Schätzung des Werts von ), die uns im Grunde einen anderen Weg zur Ableitung des OLS-Schätzers aufzeigt (durch die Theorie großer Zahlen).f y β∗
Die LHS von (7.14) kann erweitert werden als:Ex0[f(x0)−Ef^α(x0)]2=Ex0[f(x0)−xT0β∗+xT0β∗−Ef^α(x0)]2=Ex0[f(x0)−xT0β∗]2+Ex0[xT0β∗−Ef^α(x0)]2+2Ex0[(f(x0)−xT0β∗)(xT0β∗−Ef^α(x0))].
Um (7.14) zu zeigen, muss man nur zeigen, dass der dritte Term Null ist, dhEx0[(f(x0)−xT0β∗)(xT0β∗−Ef^α(x0))]=0,
wobei die LHS gleichLHS=Ex0[(f(x0)−xT0β∗)xT0β∗]−Ex0[(f(x0)−xT0β∗)Ef^α(x0))]
Der erste Term (der Einfachheit ich weggelassen und durch ): wo wir die Varianzidentität verwendet habenx0 x E[(f(x)−xTβ∗)xTβ∗]=E[f(x)xTβ∗]−E[(xTβ∗)2]=E[f(x)xT]β∗−(Var[xTβ∗]+(E[xTβ∗])2)=E[f(x)xT]β∗−(βT∗Var[x]β∗+(βT∗E[x])2)=E[f(x)xT]β∗−(βT∗(E[xxT]−E[x]E[x]T)β∗+(βT∗E[x])2)=E[f(x)xT]β∗−E[f(x)xT]E[xxT]−1E[xxT]β∗+βT∗E[x]E[x]Tβ∗−βT∗E[x]E[x]Tβ∗=0, Var[z]=E[zzT]−E[z]E[z]T zweimal für den zweiten und vierten Schritt; Wir haben in der vorletzten Zeile eingesetzt und alle anderen Schritte folgen aufgrund der Standarderwartungs- / Varianz-Eigenschaften. Insbesondere ist ein konstanter Vektor für die Erwartung, da er unabhängig davon ist, wo (oder ) gemessen wird.βT∗ β∗ x x0
Der zweite Term wobei die zweite Gleichheit gilt, weil ein Punkt ist- weise Erwartung, wo die Zufälligkeit aus den Trainingsdaten , so dass fest ist; Die dritte Gleichheit gilt, da unabhängig von (E[(f(x)−xTβ∗)Ef^α(x)]=E[(f(x)−xTβ∗)E[xTβ^α]]=E[E[β^αT]x(f(x)−xTβ∗)]=Eβ^αTE[xf(x)−xxTβ∗]=Eβ^αT(E[xf(x)]−E[xxT]E[xxT]−1E[xf(x)])=0, Ef^α(x) y x Eβ^α x x0 ) wird vorhergesagt, so dass es eine Konstante für die äußere Erwartung ist. In Kombination der obigen Ergebnisse ist die Summe dieser beiden Terme Null, was Gleichung (7.14) zeigt.
Obwohl nicht mit der Frage verbunden, ist anzumerken, dass , dh die optimale Regressionsfunktion ist, da Daher ist Wenn wir uns daran erinnern, dass der letzte Schätzer der beste lineare Schätzer ist, sagt uns die obige Gleichung im Grunde , dass Verwendung der optimalen Regressionsfunktion oder der verrauschten Version dasselbe ist wie der Punktschätzer die Sorge. Natürlich ist der Schätzer mitf(X)=E[Y|X] f(X) f(X)=E[f(X)+ε|X]=E[Y|X]. β∗=E[XXT]−1E[Xf(X)]=E[XXT]−1E[XE[Y|X]]=E[XXT]−1E[E[XY|X]]=E[XXT]−1E[XY], f(x) y f wird eine bessere Eigenschaft / Effizienz haben , da es zu kleineren Varianz führen, die sich leicht aus dieser Tatsache zu sehen ist stellt zusätzliche Fehler oder Varianz.y
quelle
Ja, dies ist nicht die übliche Bias-Varianz-Zerlegung, sondern eine weitere Zerlegung der Bias.
Jemand anderes hat dies bereits beantwortet.
quelle