Regulárizáció
Regulárizáció a gépi tanulásban, statisztikában és inverz feladatokban alkalmazott módszer, amely a modell komplexitását vagy a megoldás normáinak nagyságát büntető tag hozzáadásával korlátozza. A cél a túlilleszkedés mérséklése és a modell általánosító képességének növelése.
Az általános megközelítés egy vesztességfüggvény módosítása: min_{θ} L(y, f(x; θ)) + λ R(θ), ahol R a regulárizációs büntető, λ pedig
- L2-regulárizáció (ridge vagy Tikhonov): R(θ) = ||θ||2^2, amely a paraméterek nagyságát bünteti és stabilizálja a megoldást.
- L1-regulárizáció (lasso): R(θ) = ∑|θ_j|, amely sparsity-t eredményezhet, vagyis egyes paramétereknek kizárólag 0 értéket adhat.
- Elastic net: R(θ) = α||θ||1 + (1-α)/2 ||θ||2^2, kombinálva a sparsity és a shrinkage előnyöket.
Megfontolások és alkalmazások: a regulárizáció jellemzően segít csökkenteni a modell varianciáját és javítja az általánosítóképességet, különösen
Kiválasztása gyakran a λ érték meghatározásán múlik: kereszt-ellenőrzés, információs kritériumok, L-curve vagy diszkrepancia-elv alapján. Használati területek közé