Home

Überparametrisierung

Überparametrisierung bezeichnet die Situation, in der ein statistisches Modell mehr Parameter besitzt, als zur eindeutigen Bestimmung der zugrundeliegenden Beziehung notwendig wäre. Formal spricht man von p Parametern bei n Beobachtungen, wobei p > n die klassische Grenze für Überparametrisierung darstellt. Insbesondere in Bereichen des maschinellen Lernens und der Statistik, etwa bei tiefen neuronalen Netzen, ist die Parameteranzahl oft deutlich größer als die Anzahl der Trainingsbeispiele.

Überparametrisierung kann zu Überanpassung (Overfitting) führen, das heißt, das Modell passt Rauschen in den Trainingsdaten an

Zu beobachtenden Phänomenen gehört das Double-Descent-Verhalten: Mit zunehmender Modellergröße kann der Generalisierungsfehler nach einer anfänglichen Verschlechterung

Regulierungs- und Architekturmaßnahmen helfen, die Parameterisierung zu steuern: Regularisierung (L1/L2), Dropout, frühzeitiges Stoppen, Datenaugmentation sowie Designs,

und
verschlechtert
die
Generalisierung.
In
der
Praxis
zeigen
überparametrisierte
Modelle
jedoch
häufig
gute
Generalisierungseigenschaften,
was
auf
Phänomene
wie
implizite
Regularisierung
durch
den
Optimierer,
architekturbezogene
Strukturen
und
die
Datenverteilung
zurückgeführt
wird.
Es
entsteht
oft
eine
Redundanz
der
Parameter
und
eine
Mehrdeutigkeit
der
Darstellung,
das
heißt,
verschiedene
Parameterwerte
können
dieselbe
Funktion
repräsentieren.
erneut
sinken.
Der
Begriff
der
benignen
Überparametrisierung
betont,
dass
es
unter
bestimmten
Bedingungen
möglich
ist,
den
Trainingsfehler
algebraisch
auf
null
zu
senken,
ohne
die
Testleistung
wesentlich
zu
verschlechtern.
die
Parameterredundanz
reduzieren.
Überparametrisierung
ist
ein
zentrales
Merkmal
moderner
Lernsysteme;
sie
bietet
Chancen
für
gute
Generalisierung,
birgt
aber
zugleich
Risiken,
die
sorgfältige
Methoden
erfordern.