Intuition hinter der Methode der Multiplikatoren mit alternierender Richtung

8

Ich habe in letzter Zeit viele Artikel über ADMM gelesen und auch versucht, einige Probleme damit zu lösen, bei denen es sehr effektiv war. Im Gegensatz zu anderen Optimierungsmethoden kann ich mir nicht vorstellen, wie und warum diese Methode so effektiv ist (natürlich habe ich in einigen Fällen eine Konvergenzanalyse gesehen, aber nichts, was mir zu viele Einblicke gab). Gibt es eine Intuition hinter ADMM? Wie kamen die ersten Wissenschaftler auf diese Idee? Eine gewisse geometrische Intuition wäre am besten, aber jede Einsicht, die jemand hat, wird helfen.

Olamundo
quelle
Können Sie darlegen, was ADMM ist?
Bill Barth
@ BillBarth - Sicher :) Wechselrichtungsmethode von Multiplikatoren (siehe z. B. stanford.edu/~boyd/admm.html )
olamundo
1
Können Sie zumindest sagen, was Sie an dem Originalpapier so unklar finden?
Kirill
3
@Kirill Nur eine Kleinigkeit: Boyds Papier ist kaum das Original-ADMM-Papier. Es ist eine gute Referenz, aber der Algorithmus geht auf Douglas und Rachford (1956) zurück und wurde von den 1970er bis 1990er Jahren weiterentwickelt und analysiert. Es hat eine Wiederbelebung in den letzten Jahren vor allem aufgrund der Summen gesehen um Regularisierung. 1
Jed Brown
2
ADMM hat viel Aufmerksamkeit erhalten, weil es zur Lösung von Problemen bei der -Regularisierung so effektiv ist , aber es ist keine Methode, die im Allgemeinen für alle Optimierungsprobleme nützlich ist. Eine bessere Frage wäre, warum ADMM im Kontext so effektiv ist. Die Arbeit von Osher und Yin an Split-Bregman-Methoden (im Grunde genommen gleichbedeutend mit ADMM) hilft, dies zu erklären. Siehe die Seite unter caam.rice.edu/~optimization/L1/bregmanL1
Brian Borchers

Antworten:

10

Wenn ich mich richtig erinnere, wird das ADMM oft als Algorithmus angegeben, um für zwei konvexe zu lösen , nieder-halb Funktionales und und linear, beschränkte Operatoren und .

minx,y F(x)+G(y),s.tAx+By=c
G A B.FGAB

Ich finde den folgenden Sonderfall von , und illustrativ. In diesem Fall lautet die Einschränkung , dh wir können ersetzen, um das Problem Das Lösen kann nun schwierig sein, während das Lösen von Problemen der Form einfach sein kann. (Sie können sich selbst Beispiele dafür ausdenken, ein beliebtes ist und ). In ADMM beginnen Sie mit der "geteilten Form" und erstellen das "erweiterte Lagragian" A=Ic = 0 x - y = 0B=Ic=0xy=0

minxF(x)+G(x).
F(x)=λx1G(x)=1
minxρF(x)+12xz2
F(x)=λx1minx,yF(x)+G(y),G(x)=12Axb2L ρ ( x , y , z ) = F ( x ) + G ( y ) + z T ( x - y ) + ρ
minx,y F(x)+G(y),s.txy=0
Lρ(x,y,z)=F(x)+G(y)+zT(xy)+ρ2xy2
mit dem Lagrange- Multiplikator . Jetzt minimieren Sie abwechselnd den erweiterten Lagragian in den verschiedenen Richtungen und , dh iterieren und aktualisiere den Multiplikator gemäß Dies sollte die Namenswechselmethode für Multiplikatoren erklären .z xy
xk+1=argminx Lρ(x,yk,zk)
yk+1=argminy Lρ(xk+1,y,z)
zk+1=zk+ρ(xk+1yk+1).

Wenn Sie diese Minimierungsprobleme für und genauer analysieren , stellen Sie fest, dass für jedes Update nur ein Problem der "einfacheren Form" gelöst werden muss, z. B. für das Update (Vernachlässigung von Begriffen, die nicht von abhängen ).xyx

xk+1=argminx F(x)+ρ2xyk+ρzk2
x

ADMM für das Problem wird ähnlich abgeleitet, aber dann sind die Zwischenprobleme für die Aktualisierungen immer noch a etwas schwierig, kann aber im Vergleich zum Original vergleichsweise einfach sein. Insbesondere im Fall von und (oder äquivalent , und die Einschränkung ) Die Aktualisierungen sind mehr oder weniger einfach zu implementieren.

minx,y F(x)+G(y),s.tAx+By=c
F(x)=λx1G(x)=12Axb2F(x)=λx1G(y)=12y2Axy=b
Dolch
quelle
Nett! Es ist auch nützlich zu zeigen, was für 3 Blöcke passiert (es gibt Fälle, für die es funktioniert, zum Beispiel für dekorrelierte Matrizen).
Royi