Hier ist ein schönes Beispiel aus der Optimierung: der ADMM-Algorithmus (Alternating Direction Method of Multipliers).
Bei einer entkoppelten und konvexen Zielfunktion zweier Variablen (die Variablen selbst könnten Vektoren sein) und einer linearen Beschränkung, die die beiden Variablen koppelt:
minf1(x1)+f2(x2)
s.t.A1x1+A2x2=b
Die erweiterte Lagrange-Funktion für dieses Optimierungsproblem wäre dann
Lρ(x1,x2,λ)=f1(x1)+f2(x2)+λT(A1x1+A2x2−b)+ρ2||A1x1+A2x2−b||22
Der ADMM-Algorithmus führt grob eine "Gauß-Seidel" -Teilung der erweiterten Lagrange-Funktion für dieses Optimierungsproblem durch, indem zuerst in Bezug auf (während verbleiben minimiert wird fest), dann durch Minimieren von in Bezug auf (während fest bleiben), dann durch Aktualisieren von . Dieser Zyklus wird fortgesetzt, bis ein Stoppkriterium erreicht ist.Lρ(x1,x2,λ)x1x2,λLρ(x1,x2,λ)x2x1,λλ
(Hinweis: Einige Forscher wie Eckstein verwerfen die Gauß-Siedel-Aufteilungsansicht zugunsten von proximalen Operatoren, siehe z. B. http://rutcor.rutgers.edu/pub/rrr/reports2012/32_2012.pdf. )
Bei konvexen Problemen hat sich gezeigt, dass dieser Algorithmus konvergiert - für zwei Variablensätze. Dies ist bei drei Variablen nicht der Fall. Zum Beispiel das Optimierungsproblem
minf1(x1)+f2(x2)+f3(x3)
s.t.A1x1+A2x2+A3x3=b
Selbst wenn alle konvex sind, kann die Konvergenz des ADMM-ähnlichen Ansatzes (Minimierung des Augmented Lagrangian in Bezug auf jede Variable , dann Aktualisierung der dualen Variablen ) NICHT garantiert werden, wie in diesem Artikel gezeigt wurde.fxiλ
https://web.stanford.edu/~yyye/ADMM-final.pdf