Was ist die asymptotische Zeitkomplexität der Lasso-Regression, wenn die Anzahl der Zeilen oder Spalten zunimmt?
quelle
Was ist die asymptotische Zeitkomplexität der Lasso-Regression, wenn die Anzahl der Zeilen oder Spalten zunimmt?
Denken Sie daran, dass Lasso ein lineares Modell mit einer Regularisierung von .
Das Finden der Parameter kann als ein nicht eingeschränktes Optimierungsproblem formuliert werden, bei dem die Parameter durch gegeben sind
.
In der beschränkten Formulierung sind die Parameter durch gegeben
Welches ist ein quadratisches Programmierproblem und damit Polynom.
Fast alle konvexen Optimierungsroutinen, auch für flexible nichtlineare Objekte wie neuronale Netze, basieren auf der Berechnung der Ableitung Ihrer Ziel-Wrt-Parameter. Sie können jedoch nicht die Ableitung von . Als solche verlassen Sie sich auf verschiedene Techniken. Es gibt viele Methoden, um die Parameter zu finden. Hier ist ein Übersichtsartikel zum Thema Least Squares Optimization mit L1-Norm Regularization . Die zeitliche Komplexität der iterativen konvexen Optimierung ist schwierig zu analysieren, da sie von einem Konvergenzkriterium abhängt. Im Allgemeinen konvergieren iterative Probleme in weniger Epochen, wenn die Beobachtungen zunehmen.
Während @JacobMick einen breiteren Überblick und einen Link zu einem Übersichtsartikel bietet, möchte ich eine "Shortcut-Antwort" geben (die als Sonderfall seiner Antwort angesehen werden kann).
Die Anzahl der Kandidatenvariablen (Merkmale, Spalten) sei und die Stichprobengröße (Anzahl der Beobachtungen, Zeilen) sei . Betrachten Sie LASSO als mit dem LARS-Algorithmus implementiert ( Efron et al., 2004 ). Die Rechenkomplexität von LASSO ist ( ibid. )n O ( K 3 + K 2 n )K n O(K3+K2n)
Verweise:
quelle