tilbakepropagasjon
Tilbakepropagasjon er en algoritme for å trene kunstige nevrale nettverk ved å beregne gradienter av tapsfunksjonen med hensyn til nettverkets vekter ved hjelp av kjederegelen. Gjennom en framover-pass beregnes nettverkets prediksjoner og tapsverdien, og i en bakover-pass fordeles feilen tilbake gjennom nettverket slik at hver vekt får sin partielle avledning. Dette muliggjør effektive oppdateringer av nettverkets parametere.
For å bruke backprop, initialiseres vektene, og en framover-pass kjøres på et eksempel eller en batch for
Vanlige optimeringsbidrag inkluderer stochastic gradient descent og varianter som mini-batch SGD, momentum, Adam og RMSprop. Aktiviseringsfunksjoner
Utfordringer i backpropagation inkluderer vanishing og exploding gradienter i dypt nettverk, noe som har drevet utviklingen
Historisk er backpropagation sentralt i utviklingen av dyp læring og har bidratt til fremskritt innen bildediagnostikk,