Überparametrisierung
Überparametrisierung bezeichnet die Situation, in der ein statistisches Modell mehr Parameter besitzt, als zur eindeutigen Bestimmung der zugrundeliegenden Beziehung notwendig wäre. Formal spricht man von p Parametern bei n Beobachtungen, wobei p > n die klassische Grenze für Überparametrisierung darstellt. Insbesondere in Bereichen des maschinellen Lernens und der Statistik, etwa bei tiefen neuronalen Netzen, ist die Parameteranzahl oft deutlich größer als die Anzahl der Trainingsbeispiele.
Überparametrisierung kann zu Überanpassung (Overfitting) führen, das heißt, das Modell passt Rauschen in den Trainingsdaten an
Zu beobachtenden Phänomenen gehört das Double-Descent-Verhalten: Mit zunehmender Modellergröße kann der Generalisierungsfehler nach einer anfänglichen Verschlechterung
Regulierungs- und Architekturmaßnahmen helfen, die Parameterisierung zu steuern: Regularisierung (L1/L2), Dropout, frühzeitiges Stoppen, Datenaugmentation sowie Designs,