gradientmetoderna
Gradientmetoderna är en grupp optimeringsalgoritmer som används för att minimera differentiabla funktioner. De bygger på gradienten, som pekar i riktningen för brantaste ökningen. Genom att uppdatera variabler i motsatt riktning uppnår man gradvis lägre funktionsvärden: xk+1 = xk − αk ∇f(xk). Steglängden αk kallas inlärningshastighet och är central för konvergens; för stor eller för liten stegstorlek kan konvergens vara långsam eller instabil. Gradientmetoder används ofta när målfunktionen är glat differentiell, exempelvis i maskininlärning där förlustfunktionen beror på modellens parametrar.
Vanliga variationer inkluderar gradientnedstigning i deterministiska problem, eller stokastisk gradientnedstigning där gradienten approxieras av en minibatch
Teoretiska resultat visar att för konvexa problem kan gradientmetoder konvergera mot minimipunkten under rimliga antaganden om