Ich war kürzlich bei einigen Statistikgesprächen über das Lasso (Regularisierung) und ein Punkt, der immer wieder auftaucht, ist, dass wir nicht wirklich verstehen, warum das Lasso funktioniert oder warum es so gut funktioniert. Ich frage mich, worauf sich diese Aussage bezieht. Natürlich verstehe ich, warum das Lasso technisch funktioniert, um eine Überanpassung durch Schrumpfen der Parameter zu verhindern, aber ich frage mich, ob eine solche Aussage eine tiefere Bedeutung hat. Hat jemand irgendwelche Ideen? Vielen Dank!
machine-learning
lasso
regularization
user321627
quelle
quelle
Antworten:
Manchmal mangelt es an Kommunikation zwischen arbeitenden Statistikern und der lerntheoretischen Gemeinschaft, die die Grundlagen von Methoden wie dem Lasso untersuchen. Die theoretischen Eigenschaften des Lassos sind tatsächlich sehr gut verstanden.
Dieses Dokument enthält in Abschnitt 4 eine Zusammenfassung vieler seiner Eigenschaften. Die Ergebnisse sind recht technisch, aber im Wesentlichen:
quelle
Wenn Sie verstehen, warum Lasso funktioniert, meinen Sie, warum es die Feature-Auswahl durchführt (dh die Gewichte für einige Features auf genau 0 setzen), verstehen wir das sehr gut:
quelle
Es gibt das Problem der Vorzeichenwiederherstellung der Modellauswahlkonsistenz (das von Statistikern beantwortet wurde ) und
Es gibt das Problem der Inferenz (Erstellung guter Konfidenzintervalle für die Schätzungen), das bis zu einem Forschungsthema reicht.
Der Großteil der Arbeit wird eher von Statistikern als von "der lerntheoretischen Gemeinschaft" geleistet.
quelle