Nesterovaccelerasjon
Nesterovaccelerasjon, også kalt Nesterovs akselererte gradient eller Nesterov momentum, er en optimeringsmetode utviklet av Yuri Nesterov i 1983. Den er en forbedring av gradientbaserte metoder som bruker momentum og brukes i maskinlæring og numerisk optimering for å akselerere konvergensen i store modeller.
Metoden oppnår dette ved å bruke gradienten beregnet på et forhåndslook-ahead-punkt i stedet for på den nåværende
Nesterovaccelerasjon regnes ofte som en variant av heavy-ball-metoden. Begge bruker tidligere oppdateringer for å forfølge en
Konvergens og anvendelse: For glatt konveks funksjon gir Nesterov-varianten O(1/k^2) hastighet i verdien av målfunksjonen, mens
Bruk og tilgjengelighet: I maskinlæring er SGD med Nesterov-momentum et mye brukt alternativ; de fleste rammeverk