aktiveringsfunktioner
Aktiveringsfunktioner är matematiska funktioner som används i artificiella neurala nätverk för att införa icke-linjäritet. De tillämpas på neuronens indata, det vill säga summan av vikter multiplicerade med ingångar plus bias. Utan aktiveringsfunktioner skulle nätverk endast kunna modellera linjära samband, vilket kraftigt begränsar deras uttrycks- och inlärningsförmåga.
Egenskaper: Funktionerna bör vara differentiabla och ofta kontinuerliga, eftersom lärandet sker via bakåtspridning. De påverkar gradienternas
Vanliga aktiveringsfunktioner inkluderar Sigmoid, som ligger mellan 0 och 1 och används ibland i utgångslag, men
Användning: I dolda lager dominerar ReLU-familjen. För utgångslagret väljs funktion utifrån uppgiften: sigmoid för binär klassificering,
Nya aktiveringsfunktioner fortsätter utvecklas, med funktioner som GELU och Swish som fått bred användning i moderna