regelmäßigisierungstechniken
Regularisierungstechniken sind Methoden in der Statistik und im maschinellen Lernen, die darauf abzielen, die Generalisierung von Modellen zu verbessern, indem Überanpassung an Trainingsdaten reduziert wird. Sie erreichen dies, indem dem Lernprozess eine Strafe hinzugefügt oder die Modellkomplexität eingeschränkt wird, wodurch Modelle robuster werden.
Zu den häufigsten Techniken gehören L2-Regularisierung (Ridge), L1-Regularisierung (Lasso) sowie Elastic Net, die Koeffizienten bzw. deren
Anwendungsbereiche umfassen nahezu alle überwachten Lernaufgaben, insbesondere Regression, Klassifikation und Deep Learning. Die Wahl der Technik
Historisch stammen Regularisierungstechniken aus der Tikhonov-Regularisierung der 1960er Jahre; Ridge-Regression folgte in den 1970er Jahren, Lasso