ReLUaktivointeihin
ReLU-aktivointi (Rectified Linear Unit) on yleisesti käytetty ei-lineaarinen aktivointifunktio syväverkkojen neuroneissa. Sen matemaattinen esitys on f(x) = max(0, x). Funktio sovelletaan yleensä jokaiselle syötteelle erikseen (elementtitasolla), jolloin neuronin output on joko positiivinen tai nolla.
Ominaisuudet ja vaikutukset. ReLU antaa gradientin 1, kun x > 0, ja 0, kun x < 0. Tämä
Rajoitukset ja variantit. Yksi tunnetuimmista haasteista on “dying ReLU” -ilmiö: joillakin soluilla negatiiviset syötteet voivat jatkuvasti
Historia ja käyttö. ReLU esiteltiin laajasti 2010 paperissa Rectified Linear Units Improve Restricted Boltzmann Machines (Nair