Home

Normalitätstests

Normalitätstests sind statistische Verfahren zur Beurteilung, ob eine Stichprobe oder die zugrundeliegende Verteilung einer Grundgesamtheit annähernd normalverteilt ist. Sie dienen insbesondere der Entscheidung, ob die Annahme der Normalverteilung als Voraussetzung für parametrische Modelle wie t-Tests, ANOVA oder lineare Regression sinnvoll ist.

Zu den gängigsten Tests gehören Goodness-of-Fit-Tests wie der Shapiro-Wilk-Test, der Kolmogorov-Smirnov-Test (mit Anpassungen wie Lilliefors für

Ausführung und Interpretation erfolgen über einen p-Wert. Ein p-Wert unter dem gewählten Signifikanzniveau führt zur Ablehnung

Anwendungsgebiete umfassen die Prüfung von Normalität vor dem Einsatz parametrischer Modelle sowie die Diagnose in der

fehlende
Parameter)
sowie
der
Anderson-Darling-
und
der
Cramér-von
Mises-Test.
Zudem
gibt
es
Verfahren,
die
auf
Abweichungen
von
Normalität
durch
Skewness
und
Kurtosis
abzielen,
wie
D’Agostino's
K^2
und
der
Jarque-Bera-Test.
Die
Wahl
hängt
von
Stichprobengröße,
Verteilungserwartung
und
dem
Ziel
der
Analyse
ab;
der
Shapiro-Wilk-Test
liefert
oft
hohe
Power
in
kleinen
bis
mittleren
Stichproben,
während
KS-Tests
empfindlicher
gegenüber
allgemeinen
Abweichungen
sind,
aber
bei
unbekannten
Parametern
eingeschränkt
sein
können.
der
Normalverteilungsannahme.
Bei
großen
Stichproben
können
auch
geringe
Abweichungen
signifikant
sein,
während
bei
kleinen
Stichproben
die
Power
geringer
ist.
Es
ist
wichtig,
Ergebnisse
mit
visuellen
Methoden
wie
QQ-Plots
zu
ergänzen
und
die
praktische
Bedeutung
von
Abweichungen
abzuwägen.
Simulation
und
in
der
Modellbewertung.
Grenzen
von
Normalitätstests
liegen
in
ihrer
Abhängigkeit
von
Stichprobengröße
und
der
Tatsache,
dass
kein
Test
eine
endgültige
Beweiskraft
für
Normalität
besitzt.