ReLUaktivoinnit
ReLUaktivoinnit, eli Rectified Linear Units, ovat yleisesti käytettyjä aktivointifunktioita syväverkkojen piilokerroksissa. ReLU-funktio määritellään myös muodossa ReLU(x) = max(0, x). Käytännössä se antaa nollan negatiivisille arvoille ja säilyttää positiiviset arvot muuttumattomina, mikä tekee siitä epälineaarisen mutta helposti laskettavan. ReLU on yleistynyt 2010-luvulla osana syväoppimisen käytäntöjä sen laskentatehokkuuden ja nopean konvergenssin vuoksi.
Ominaisuudet ja hyödyt: ReLU on erittäin kevyesti laskettava, ei vaadi eksponentteja tai monimutkaisia operaatiota. Tämä auttaa
Rajoitteet ja haasteet: Yksi yleinen ongelma on niin sanottu "dying ReLU" -ilmiö, jossa neuroni pysyy käytännössä
Variantit ja kehityssuuntaukset: Useita ReLU-variantteja on kehitetty, kuten Leaky ReLU, Parametric ReLU (PReLU), Randomized Leaky ReLU
Käyttö: ReLU sijoitetaan yleisesti piilokerroksiin monissa konvoluutiokerroksissa ja tiheissä verkoissa. Ulostulokerroksessa käytetään usein toista aktivointia (esimerkiksi
---