Gradientenbasierte
Gradientenbasierte Verfahren sind Optimierungs- oder Lernmethoden, die zur Bestimmung von Minima oder Maxima die Information aus dem Gradient der Zielfunktion nutzen. Sie arbeiten bevorzugt in hochdimensionalen Räumen, in denen direkte Suchen oft ineffizient oder unmöglich sind. Typisch ist der Fokus auf Funktionen, deren Gradienten eindeutig bestimmt oder durch automatische Differenzierung berechenbar sind.
Zentrale Idee ist der Gradient als Richtungsinformation. Der Gradientenvektor ∇f(x) zeigt die Richtung des größten Anstiegs
Wichtige Varianten umfassen Gradient Descent, Stochastic Gradient Descent (SGD) und Mini-Batch-Varianten, sowie Erweiterungen wie Momentum, Nesterov-beschleunigten
Anwendungen finden sich vor allem im maschinellen Lernen, insbesondere beim Training neuronaler Netze, in der wissenschaftlichen
Herausforderungen und Erweiterungen umfassen adaptive Lernraten, Regularisierung, Projektion oder Penalty-Verfahren bei Einschränkungen, Gradient Clipping zur Stabilisierung