Home

Unteranpassung

Unteranpassung bezeichnet in der Statistik und im maschinellen Lernen einen Zustand, bei dem ein Modell die zugrunde liegenden Beziehungen in den Daten nicht adäquat abbildet. Dadurch entsteht in der Regel ein hohes Bias-Risiko und eine unzureichende Genauigkeit sowohl auf dem Trainings- als auch auf dem Validierungs- oder Testdatensatz.

Merkmale einer Unteranpassung sind ein relativ hoher Trainingsfehler, der oft auch bei weiterer Lernzeit oder mehr

Ursachen liegen häufig in einer zu geringen Modellkomplexität im Vergleich zur tatsächlichen Struktur der Daten (z.

Gegenmaßnahmen umfassen die Erhöhung der Modellkomplexität oder den Einsatz flexibilerer Modelle (z. B. nichtlineare Modelle, Entscheidungsbäume,

Abgrenzung: Unteranpassung steht dem Phänomen der Überanpassung gegenüber, bei dem das Modell zu stark an den

Daten
bestehen
bleibt.
Das
Modell
zeigt
kaum
Verbesserungen,
wenn
die
Komplexität
erhöht
wird,
und
es
gelingt
ihm
nicht,
Muster
im
Dataset
zu
erfassen,
die
in
den
Daten
vorhanden
sind.
B.
ein
lineares
Modell
bei
nichtlinearen
Zusammenhängen).
Weitere
Gründe
können
zu
starke
Regularisierung,
eine
unpassende
Merkmalsrepräsentation,
fehlende
informative
Merkmale
oder
schlechte
Datenqualität
sein.
Ensemble-Methoden),
Reduktion
der
Regularisierung,
gezieltes
Feature-Engineering,
bessere
Datenvorverarbeitung
oder
die
Erhebung
zusätzlicher
relevanter
Merkmale.
Kreuzvalidierung
kann
helfen,
den
passenden
Komplexitätsgrad
zu
bestimmen
und
Über-
bzw.
Unteranpassung
zu
vermeiden.
Trainingsdaten
hängt
und
auf
neuen
Daten
schlecht
generalisiert.
Ziel
ist
ein
ausgewogener
Bias-Varianz-Komplexitäts-Kompromiss.