Regularisierungsparameter
Regularisierungsparameter bezieht sich auf einen Hyperparameter in statistischen Modellen und im maschinellen Lernen, der die Stärke eines Regularisierungsterms festlegt, der der Verlustfunktion hinzugefügt wird. Durch Regulierung der Modellkomplexität sollen Überanpassung reduziert und Generalisierung verbessert werden.
Gängige Regularisierungstypen sind L2-Regularisierung (Ridge), die der Verlustfunktion eine Strafe proportional zur Summe der quadrierten Koeffizienten
Der Regularisierungsparameter steuert den Bias-Varianz-Trade-off: Ein kleines λ erlaubt eine flexiblere Anpassung an die Trainingsdaten, führt daher
Die optimale Wahl erfolgt meist durch Kreuzvalidierung oder andere Hyperparameter-Optimierungsmethoden. Alternativ werden Informationskriterien oder bayesische Ansätze
In der Praxis ist der Regularisierungsparameter ein Hyperparameter außerhalb des eigentlichen Trainingsprozesses; Softwarepakete verwenden unterschiedliche Bezeichner