L2regularisering
L2regularisering, ook wel L2-regularisatie genoemd, is een techniek in statistiek en machine learning die een straf oplegt aan de grootte van de modelparameters om overfitting te voorkomen. Door een penalty toe te voegen aan de verliesfunctie worden grote gewichten afgeremd, wat de generalisatie naar nieuwe data ten goede kan komen. Het wordt toegepast in diverse modellen, waaronder lineaire regressie, logistieke regressie en neurale netwerken.
Wiskundig wordt de verliesfunctie gevormd door de originele foutmaat L(w) plus een regularisatieterm: J(w) = L(w) + λ ∑ j
Het belangrijkste effect is koopkrachtige shrinkage van de gewichten: de coefficients worden richting nul getrokken, wat
Praktisch voeren medewerkers meestal standaardisatie van features uit, omdat de straf afhankelijk is van de schaal
Historisch is L2-regularisering gerelateerd aan Tikhonov-regularisatie; ridge-regressie werd in de volksmond bekend door Hoerl en Kennard.