Home

ZScoreNormalisierung

ZScoreNormalisierung, auch Standardisierung oder Z-Standardisierung genannt, ist eine Methode der Merkmals-Skalierung, bei der Werte eines Merkmals so transformiert werden, dass sie einen Mittelwert von 0 und eine Standardabweichung von 1 erhalten. Bei einem Merkmal x wird der z-Wert berechnet als z = (x - μ) / σ, wobei μ der Mittelwert und σ die Standardabweichung des Merkmals ist.

Anwendung: Sie wird vor allem in der Vorverarbeitung von maschinellem Lernen eingesetzt, insbesondere für abstandsbasierte oder

Im Vergleich zur Min-Max-Normalisierung verändert die Z-Score-Normalisierung die Verteilungsform der Daten weniger stark, zentriert den Mittelwert

Risiken und Grenzfälle: Wenn σ nahe null ist (Merkmal nearly constant), kann eine Division durch Null auftreten;

gradientenbasierte
Algorithmen
(zum
Beispiel
k-NN,
SVM
mit
RBF,
lineare
Modelle)
sowie
beim
Clustering.
Sie
sorgt
dafür,
dass
Merkmale
gleichmäßig
skaliert
sind
und
verhindert,
dass
Merkmale
mit
größeren
Werten
das
Modell
dominiert.
Üblicherweise
erfolgt
die
Berechnung
von
μ
und
σ
auf
den
Trainingsdaten
und
die
gleichen
Werte
werden
dann
auf
Validierungs-
und
Testdaten
angewendet.
aber
auf
0
und
skaliert
die
Streuung
auf
1.
Sie
ist
jedoch
empfindlich
gegenüber
Ausreißern,
da
Mittelwert
und
Standardabweichung
durch
Ausreißer
verzerrt
werden
können.
Robuste
Varianten
verwenden
Median
und
Median
Absolute
Deviation
(MAD).
hier
wird
oft
eine
kleine
Stabilisierung
(ε)
eingefügt.
Bei
stark
schiefen
oder
multimodalen
Verteilungen
kann
die
Interpretation
der
Z-Werte
eingeschränkt
sein,
doch
die
Methode
bleibt
eine
gängige
Vorverarbeitung
in
vielen
ML-Pipelines.