quasiNewtonVerfahren
Quasi-Newton-Verfahren sind eine Klasse von Iterationsmethoden zur Minimierung differenzierbarer Funktionen. Sie verbessern Newtons Methode, indem sie eine Näherung der Hessian-Matrix oder ihrer Inversen verwenden, die im Verlauf der Optimierung aus Gradientenunterschieden rekonstruiert wird. Dadurch benötigen sie im Allgemeinen nur Gradientenberechnungen und keine explizite Berechnung der zweiten Ableitungen.
Das zentrale Prinzip besteht darin, die Aktualisierung der Hesse-Matrix so zu gestalten, dass der Secant-Zusammenhang Y_k
Zu den bekanntesten Vertretern gehören das DFP-Verfahren und das Broyden–Fletcher–Goldfarb–Shanno-Verfahren (BFGS). Letzteres ist heute das am
Anwendung finden Quasi-Newton-Verfahren vor allem in der unbeschränkten Optimierung, oft mit Linien-Suche oder Trust-Region-Techniken, sowie in