gradienttivahvistusta
Gradienttivahvistusta, myös tunnettu nimellä *gradient descent optimization*, on keskeinen algoritmi optimointitehtävien ratkaisemiseen, erityisesti machine learning -malleissa. Menetelmä perustuu iteratiiviseen prosessiin, jossa mallin parametrit (esimerkiksi painot) päivitetään pienin askelin kohti optimaalista ratkaisua. Algoritmi hyödyntää gradienttifunktiota, joka kuvaa funktionaalin (esimerkiksi virhefunktion) muutosnopeutta parametrien suhteen. Päivitysaskel määritellään yleensä kaavalla:
missä w on parametri, η on oppimiskorkki (learning rate) ja ∇J(w) on gradienttifunktio. Oppimiskorkki säätelee askelkoon, ja
Gradienttivahvistusta käytetään laajalti syvän oppimisen (deep learning) malleissa, kuten neuroniverkoissa, koska se mahdollistaa tehokkaan optimoinnin suuren
Gradienttivahvistuksen sovellukset ulottuvat paitsi machine learningiin myös muuhun optimointitehtäviin, kuten kuvankäsittelyyn, luonnollisen kielen käsittelyyn ja fysiikan