Stellen Sie sich vor, Sie haben ein Problem in einem unendlich dimensionalen Hilbert- oder Banach-Raum (denken Sie an eine PDE oder ein Optimierungsproblem in einem solchen Raum) und Sie haben einen Algorithmus, der schwach zu einer Lösung konvergiert. Wenn Sie das Problem diskretisieren und den entsprechenden diskretisierten Algorithmus auf das Problem anwenden, ist schwache Konvergenz Konvergenz in jeder Koordinate und daher auch stark. Meine Frage ist:
Fühlt sich diese Art von starker Konvergenz anders an oder sieht sie anders aus als die Konvergenz, die sich aus der guten alten einfachen starken Konvergenz des ursprünglichen unendlichen Algorithmus ergibt?
Oder konkreter:
Was für ein schlechtes Verhalten kann mit einer "diskretisierten Methode der schwachen Konvergenz" passieren?
Ich selbst bin normalerweise nicht ganz glücklich, wenn ich nur eine schwache Konvergenz nachweisen kann, aber bis jetzt konnte ich kein Problem mit dem Ergebnis der Methoden beobachten, selbst wenn ich das Problem diskretisierter Probleme auf höhere Dimensionen skaliere.
Beachten Sie, dass ich nicht an dem Problem "Erstes Diskretisieren als Optimieren" oder "Erstes Optimieren als Diskretisieren" interessiert bin und mir Probleme bewusst sind, die auftreten können, wenn Sie einen Algorithmus auf ein diskretisiertes Problem anwenden, das nicht alle Eigenschaften mit dem Problem teilt für die der Algorithmus entwickelt wurde.
Update: Betrachten Sie als konkretes Beispiel ein Optimierungsproblem mit einer Variablen in und lösen Sie es mit einer (Trägheits-) Vorwärts-Rückwärts-Aufteilung oder einer anderen Methode, für die nur eine schwache Konvergenz in bekannt ist. Für das diskretisierte Problem können Sie dieselbe Methode verwenden und mit der richtigen Diskretisierung erhalten Sie denselben Algorithmus, wenn Sie den Algorithmus direkt diskretisiert haben. Was kann schief gehen, wenn Sie die Diskretisierungsgenauigkeit erhöhen?L 2
quelle
Antworten:
Es ist wahr, dass eine schwache Konvergenz in der Kontinuumsgrenze als am wichtigsten ist (z. B. indem keine Konvergenzrate beobachtet werden kann). Zumindest in Hilbert-Räumen ist es auch eng mit der Nicht-Eindeutigkeit des Grenzwerts und damit nur der nachfolgenden Konvergenz verbunden (z. B. wenn Sie zwischen der Annäherung an verschiedene Grenzpunkte wechseln und die Raten erneut zerstören können), und es ist schwierig, den Einfluss von zu trennen die beiden über die Konvergenz.h → 0
Speziell für eine schwache Konvergenz in haben Sie auch die Tatsache, dass die Konvergenz nicht punktweise sein muss, und dies können Sie tatsächlich in einer (ausreichend feinen) Diskretisierung beobachten. Hier ist ein Beispiel aus einer Folge von Minimierern { u ε } ε > 0 , die als ε → 0 zu u ( x ) = { - 1 x < 1 konvergiertL.2 { uε}}ε > 0 ε → 0
wo die Konvergenz schwach ist, aber nicht punktuell auf[1
Dieses Phänomen ist als "Chittering" bei der Approximation von Bang-Bang-Steuerungsproblemen für Differentialgleichungen bekannt (dh Probleme mit Box-Einschränkungen, bei denen die Lösung fast überall entweder die untere oder die obere Grenze erreicht).
(Dieses spezielle Beispiel stammt aus unserem Artikel über die Multi-Bang-Steuerung elliptischer Systeme , Ann. Henri Poincaré (C) 2014, 1109-1130, Bemerkung 4.2.)
quelle
Die Frage, die Sie stellen, ist oft von wenig praktischer Bedeutung, da eine schwache Konvergenz in einer Norm eine starke Konvergenz in einer anderen Norm für dieselbe Lösungssequenz bedeuten kann.
Der Punkt ist, dass die Frage der schwachen gegenüber der starken Konvergenz in der Regel eine Frage der Norm ist, die Sie betrachten, und keine Eigenschaft der Abfolge von Lösungen, die Sie mit Ihrer Methode erhalten.
quelle