ReLUaktivointi
ReLUaktivointi, tai suomeksi *rectified linear unit* -aktivointi, on yleisesti käytetty funktio syvissä oppimismalleissa, erityisesti konvoluutioversoissa ja syvissä neuronaalisissa verkkoissa. Aktivointifunktioiden tehtävänä on lisätä ei-lineaarisuutta verkkoon, mikä mahdollistaa monimutkaisempien funktioiden oppimisen. ReLU on yksinkertainen ja tehokas vaihtoehto perinteisille aktivointifunktioille, kuten sigmoidi- tai hyperbolisen tangentin funktioille.
ReLU toimii seuraavasti: funktio palauttaa syötteen suoran arvon, jos se on positiivinen, ja nollan, jos se
ReLU-aktivointia käytetään laajalti syvän oppimisen sovelluksissa, kuten kuvien tunnistamisessa, luokittelussa ja luonnollisen kielen käsittelyssä. Sen suosio
ReLU-aktivointi on tärkeä osa nykyaikaisen syvän oppimisen työkalupakettia, ja sen yksinkertaisuus sekä tehokkuus tekevät siitä suositun