Takapropagointia
Takapropagointi, eli backpropagation, on laskentamenetelmä, jota käytetään keinotekoisten neuroverkkojen kouluttamiseen. Se antaa mahdollisuuden laskea nopeasti verkon painojen gradientit ja siten ohjata oppimista kohti parempaa virheenkorjausta. Takapropagointi operoi laskennallisessa grafiikassa, jossa verkon etenevä syöttö (forward pass) tuottaa tulokset ja virheen suunta sekä suuruus lasketaan jälkimmäisessä vaiheessa takaperin (backward pass) kerros kerrokselta. Tämä mahdollistaa osittaisgradienttien kertolaskujen avulla painojen osittaisgradienttien muodostamisen.
Historiaa ja taustaa: takapropagointi yhdistettiin laajalti keinotekoisessa neuroverkoissa 1980-luvulla; merkittävä virstanpylväs oli Rumelhart, Hinton ja Williamsin
Toimintaperiaate: verkko suorittaa forward-passissa syötteestä aktivaatioita ja tappiota koskevan mittarin arvon. Tämän jälkeen takapropagoinnissa lasketaan virheen
Käyttökohteet ja variantit: yleisin sovellus on verkkokaavojen, kuten syvien syötteen verkkojen (deep neural networks), kouluttaminen. Erityisesti
Rajoitteet ja huomioitavat seikat: vanhingas-/ekskoittuva gradientti, liikakasvu ja painojen aliarvostus voivat haitata oppimista. Hyvin toimiva takapropagointi