gradientpõhised
Gradientpõhised meetodid on optimeerimismeetodid, mis kasutavad eesmärkfunktsiooni gradienti, et suunata lahenduse otsing optimaalse väärtuse poole. Need meetodid on keskse tähtsusega nii matemaatilises optimeerimises kui ka masinõppes, kus eesmärk on diferentseeruv funktsioon kahjumifunktsiooni vähendamine või paremate parameetrite leidmine.
Põhimõte: iga iteratsioonis arvutatakse praeguse lahenduse gradient ja lahendus uuendatakse gradienti vastassuunas. Samm võib olla konstantne
Eelised ja piirangud: gradientpõhised meetodid on sageli väga skaleeritavad ja sobivad suurte andmekogumite jaoks, kui kahjumifunktsioon
Ajalugu ja rakendused: gradientpõhised meetodid pärinevad 19. sajandi lõpust (Cauchy) ning on sellest ajast edasi arenenud.