L2Regularisierung
L2-Regularisierung ist eine Technik in der maschinellen Lernpraxis zur Verhinderung von Überanpassung, indem dem Verlust eine Strafe auf die Größe der Modellgewichte hinzugefügt wird. Sie wird oft als Ridge-Regression bezeichnet und kommt in vielen Lernmodellen zum Einsatz, einschließlich linearer Regression, logistischer Regression und neuronaler Netze.
Mathematisch wird der Verlustfunktion eine L2-Norm-Strafe hinzugefügt. Für ein Modell mit Gewichten w gilt typischerweise J(θ)
Anwendung und Auswirkungen: L2-Regularisierung reduziert die Varianz des Modells, indem sie Overfitting entgegenwirkt, ohne notwendigerweise einzelne
Zusammenhang und Grenzen: L2-Regularisierung lässt sich mit einer Bayes-Theorie verbinden, indem man eine zero-mean Gauß-Verteilung als