Motiviert durch diese Top-Antwort auf die Frage: Warum ist Konvexität bei der Optimierung wichtiger als Quasikonvexität ? Ich hoffe jetzt zu verstehen, warum konvexe Probleme leicht zu optimieren sind (oder zumindest einfacher als quasikonvexe Probleme).
Was sind einige der effizientesten Algorithmen zur konvexen Optimierung und warum können sie bei quasikonvexen Problemen nicht effektiv eingesetzt werden?
optimization
convex-optimization
Amelio Vazquez-Reina
quelle
quelle
Antworten:
Die meisten der besten modernen Methoden zur Optimierung in großem Maßstab umfassen eine lokale quadratische Annäherung an die Zielfunktion, die sich dem kritischen Punkt dieser Annäherung nähert und dann wiederholt. Dies schließt Newtons Methode, L-BFGS usw. ein.
Eine Funktion kann nur dann lokal durch ein Quadrat mit einem Minimum gut angenähert werden, wenn der Hessische am aktuellen Punkt positiv bestimmt ist. Wenn der Hessische unbestimmt ist, dann auch nicht
Die lokale quadratische Näherung ist eine gute lokale Annäherung an die Zielfunktion und daher eine Satteloberfläche. Die Verwendung dieser quadratischen Näherung würde dann vorschlagen, sich in Richtung eines Sattelpunkts zu bewegen, der wahrscheinlich in die falsche Richtung weist, oder
Die lokale quadratische Näherung muss konstruktionsbedingt ein Minimum haben. In diesem Fall ist es wahrscheinlich eine schlechte Annäherung an die ursprüngliche Zielfunktion.
(Die gleiche Art von Problemen tritt auf, wenn der Hessische negativ bestimmt ist. In diesem Fall sieht er lokal wie eine umgedrehte Schüssel aus.)
Diese Methoden funktionieren also am besten, wenn der Hessische überall positiv positiv ist, was der Konvexität für glatte Funktionen entspricht.
Natürlich verfügen alle guten modernen Methoden über Sicherheitsvorkehrungen, um die Konvergenz zu gewährleisten, wenn Sie sich durch Regionen bewegen, in denen das Hessische unbestimmt ist - z. B. Liniensuche, Vertrauensbereiche, Stoppen einer linearen Lösung, wenn eine Richtung negativer Krümmung auftritt usw. In solchen unbestimmten Bereichen ist die Konvergenz im Allgemeinen viel langsamer, da keine vollständigen Krümmungsinformationen über die Zielfunktion verwendet werden können.
quelle
Sie können versuchen, einen konvexen Optimierungsalgorithmus auf ein nicht konvexes Optimierungsproblem anzuwenden, und es kann sogar zu einem lokalen Minimum konvergieren. Wenn Sie jedoch nur lokale Informationen über die Funktion haben, können Sie niemals den Schluss ziehen, dass Sie tatsächlich sind fand das globale Minimum. Die wichtigste theoretische Eigenschaft konvexer Optimierungsprobleme ist, dass jedes lokale Minimum (tatsächlich jeder stationäre Punkt) auch ein globales Minimum ist.
Algorithmen zur globalen Optimierung nichtkonvexer Probleme müssen eine Art globale Information enthalten (z. B. Lipschitz-Kontinuität der Funktion), um zu beweisen, dass eine Lösung ein globales Minimum ist.
Um Ihre spezifische Frage zu beantworten, warum ein konvexer Optimierungsalgorithmus bei einem quasi-konvexen Problem fehlschlagen könnte, nehmen wir an, dass Ihr konvexer Optimierungsalgorithmus zufällig an einer "flachen Stelle" im Diagramm der Zielfunktion gestartet wird. Der Farbverlauf enthält keine lokalen Informationen, die Ihnen sagen, wohin Sie als Nächstes gehen sollen. Bei einem konvexen Problem können Sie einfach aufhören und wissen, dass Sie sich bereits an einem lokalen (und damit globalen) Mindestpunkt befinden.
quelle