standaardgradiëntafdaling
Standaardgradiëntafdaling, ook bekend als Stochastic Gradient Descent (SGD), is een iteratieve optimalisatie-algoritme dat wordt gebruikt om een functie te minimaliseren. Het is een variant van gradiëntafdaling, maar in plaats van de gradiënt te berekenen op basis van de gehele dataset, gebruikt SGD een willekeurig geselecteerd datapunt of een kleine subset van datapunten (mini-batch) om de gradiënt te schatten.
Het algoritme begint met een initiële schatting van de parameters. In elke iteratie wordt een datapunt of
De belangrijkste voordelen van SGD zijn de efficiëntie en de mogelijkheid om te ontsnappen aan lokale minima,