Gradienttialgoritmit
Gradienttialgoritmit ovat optimointimenetelmiä, jotka käyttävät kohdefunktion gradienttia sen minimin löytämiseksi. Ne toimivat iteratiivisesti pienentäen funktiota kohti paikallista tai globaalia minimiä. Yleinen päivitys on θ_{t+1} = θ_t - η_t ∇f(θ_t), jossa η_t on oppimisnopeus ja ∇f(θ_t) gradientti kohdefunktiosta. Gradienttialgoritmeja sovelletaan sekä lineaarisiin että epälineaarisiin ongelmiin, ja niitä voidaan käyttää erilaisten mallien parametrien estimointiin.
Eri muunnelmat perustuvat siihen, mistä datasta gradientti lasketaan. Batch-menetelmä käyttää koko aineistoa kerrallaan, stochastic-gradient descent (SGD)
Sovellukset kattavat koneoppimisen koulutuksen, tilastollisen mallintamisen ja signaalin/tiedon käsittelyn sekä ohjausjärjestelmät. Gradienttialgoritmit ovat avainasemassa tilanteissa, joissa