gradientbaserade
Gradientbaserade metoder är en grupp optimerings- och inlärningsmetoder som utnyttjar gradientinformationen hos en differentiell objektivfunktion för att justera parametrar i syfte att minimera eller maximera funktionen. I varje iteration beräknas gradienten vid de aktuella parametrarna och parametrarna uppdateras i en riktning som förbättrar målfunktionen. Genom att följa lutningen för f kan man komma närmare ett optimum effektivt, särskilt i höga dimensioner.
De vanligaste algoritmerna är gradientnedstigning, där man uppdaterar parametarna i riktning mot den största fallhöjden, och
Användningsområden finns inom maskininlärning, särskilt djupinlärning, där nätverk tränas genom backpropagation som beräknar gradienter av förlustfunktionen.