Gradienttijohteiset
Gradienttijohteiset menetelmät, eli gradienttihin perustuvat optimointimenetelmät, pyrkivät löytämään kohdefunktion f minimin tai maksimoinnin muuttujien arvoilla. Perusideana on käyttää funktions gradienttia ∇f(x) ohjaamaan koordinaattien päivitys kohti parempaa arvoa. Yksinkertainen päivitys on x_{k+1} = x_k - η ∇f(x_k), jossa η on oppimisnopeus. Gradientti kertoo, miten f muuttuu lyhyellä hiipimisvälillä, ja negatiivinen gradientti osoittaa nopeimman suoran suunnan kohti pienempää arvoa (minimiä).
Gradienttijohteisia menetelmiä on lukuisia. Yleisimmät ovat gradientti-laskeutuminen (gradient descent) ja sen variantit. Stokastinen gradienttilaskeutuminen (SGD) ja
Käytännössä gradienttijohteiset menetelmät ovat tehokkaita monissa koneoppimis- ja optimointitehtävissä, kuten neuroverkkojen koulutuksessa, lineaarisessa ja epälineaarisessa ohjelmoinnissa