ReLUaktivointia
ReLUaktivointia (Rectified Linear Unit activation) on yleisimmin käytetty aktivointifunktio syvissä neuroniverkoissa, erityisesti konvoluutioversoissa ja täysin yhteydettyjen verkkojen (MLP) suunnittelussa. Aktivointifunktioiden tehtävä on lisätä ei-lineaarisuutta verkkoon, mikä mahdollistaa monimutkaisten mallien oppimisen. ReLU:n suosio perustuu sen yksinkertaisuuteen ja tehokkuuteen verrattuna muihin funktioihin, kuten sigmoidiin tai tanh:iin.
ReLU toimii seuraavasti: funktio palauttaa syötteen suoran arvon, jos se on positiivinen, ja nollan, jos se
ReLU:n etuja ovat myös sen suhteellinen herkkyys hyperparametrien, kuten oppimissäännöksen oppimiskadon, suhteen. Toisaalta, jos verkkoon syötetään
ReLUaktivointia käytetään laajalti, koska se on osoittautunut tehokkaaksi monissa tehtävissä, kuten kuvien tunnistamisessa, luokittelussa ja generatiivisissa