proximalegradientmethode
Die proximale Gradientmethode (proximal gradient method) ist ein Optimierungsverfahren zur Minimierung von Funktionen der Form f(x) + g(x), wobei f eine differenzierbare Funktion mit Lipschitz-stetiger Ableitung ist und g eine konvexe, ggf. nicht glatte Funktion. Das Verfahren eignet sich besonders für Probleme, bei denen f einfach differenzierbar ist und g eine leicht berechenbare Proximaloperation besitzt; dadurch lassen sich Strukturmerkmale wie Sparsamkeit oder Regularisierung gezielt berücksichtigen.
Bei der Iteration wird der gradientenbasierte Schritt für f genutzt und anschließend die Proximaloperation von g
Konvergenz und Varianten: Unter geeigneten Annahmen konvergiert die Folge gegen einen Minimierer von f+g. Bei konvexen
Anwendungen reichen von sparsamer Regression (LASSO) über Bild- und Signalverarbeitung bis hin zu maschinellem Lernen. Proximaloperatoren