læringsratevalg
læringsratevalg refererer til valget av læringsraten, eller trinnstørrelsen, i iterative optimeringsmetoder som gradientnedstigning. Læringsraten bestemmer hvor store oppdateringer som gjøres i hver iterasjon, og har stor betydning for hvor raskt og stabilt en modell konvergerer mot et optimum.
En passende læringsrate er viktig fordi for stor rate kan gjøre treningen ustabil eller føre til Divergens,
Det finnes statiske og adaptive tilnærminger. En statisk læringsrate holder samme verdi gjennom hele treningen, ofte
Vanlige strategier for å velge læringsrate inkluderer manuell justering, grid- eller random-søk, bayesiansk optimalisering og bruk
Praktiske retningslinjer tilsier at for SGD med momentum ofte brukes startverdier i området 0,01 til 0,1, mens