gradientbaserede
Gradientbaserede metoder, eller gradientbaserede optimeringsmetoder, er en gruppe af algoritmer, der anvender gradientinformation (afledte af målfunktionen) til at guide parametrene mod optima. Grundideen er at bevæge sig i retningen af den største stigning for at maksimere eller i den negative retning for at minimere funktionen. I praksis opdateres parametrene i hver iteration via x_{t+1} = x_t - η ∇f(x_t), hvor η er læringsraten.
Variationer inkluderer stochastic gradient descent (SGD), mini-batch SGD og momentum-baserede versioner samt adaptiv læringsrate såsom AdaGrad,
Anvendelsesområderne spænder fra træning af modeller i maskinlæring og dyb læring til generel numerisk optimering og
Se også: gradient, gradientnedstigning, optimering, backpropagation, Hessiansbaserede metoder, derivativfri optimering.