Ich verstehe, welche Rolle Lambda in einer elastischen Netzregression spielt. Und ich kann verstehen, warum man lambda.min auswählen würde, den Wert von lambda, der quervalidierte Fehler minimiert.
Meine Frage ist, wo in der Statistikliteratur die Verwendung von Lambda.1se empfohlen wird, dh der Wert von Lambda, der den CV-Fehler plus einen Standardfehler minimiert . Ich kann anscheinend kein formelles Zitat oder gar einen Grund dafür finden, warum dies oft ein guter Wert ist. Ich verstehe, dass es eine restriktivere Regularisierung ist und die Parameter mehr gegen Null schrumpfen werden, aber ich bin mir nicht immer sicher, unter welchen Bedingungen Lambda.1se eine bessere Wahl ist als Lambda.min. Kann jemand helfen zu erklären?
Antworten:
Friedman, Hastie und Tibshirani (2010) zitieren die Elemente des statistischen Lernens und schreiben:
Der Grund für die Verwendung eines Standardfehlers im Gegensatz zu jeder anderen Menge scheint darin zu liegen, dass er ... Standard ist. Krstajic et al. (2014) schreiben (fettgedruckte Hervorhebung meiner):
quelle
Das Buch von Breiman et al. (Zitiert im Zitat der anderen Antwort von Krstajic) ist die älteste Referenz, die ich für die 1SE-Regel gefunden habe.
Dies sind die Klassifikations- und Regressionsbäume von Breiman, Friedman, Stone und Olshen (1984). Diese Regel leiten sie in Abschnitt 3.4.3 ab.
Wenn Sie also ein offizielles Zitat benötigen, scheint dies die ursprüngliche Quelle zu sein.
quelle