Home

Varianzenungleichheit

Varianzenungleichheit bezeichnet in der Statistik die Eigenschaft, dass die Varianzen zweier oder mehrerer Populationen unterschiedlich sind. Sie ist eine zentrale Annahme in vielen parametrischen Verfahren, insbesondere bei t-Tests, ANOVA und linearen Modellen, wo die Gleichheit der Varianzen oft als Homoskedastizität bezeichnet wird. Wird diese Annahme verletzt, können Standardfehler verzerrt und Tests unzuverlässig werden.

Zur Prüfung der Varianzenungleichheit stehen verschiedene Tests zur Verfügung. Der Levene-Test und der Brown-Forsythe-Test sind robuste

Bei festgestellter Varianzenungleichheit empfehlen sich Alternativen, wie der Welch-Test (statt des Student’s t-Tests) oder der Welch-ANOVA.

Die Beurteilung der Varianzenungleichheit ist in vielen Fachgebieten relevant, etwa Psychologie, Biologie, Sozialwissenschaften und Ökonomie. In

Verfahren,
die
gegenüber
Abweichungen
von
der
Normalverteilung
weniger
sensibel
sind.
Bartletts
Test
setzt
Normalverteilung
voraus
und
ist
empfindlich
gegenüber
Abweichungen.
Der
F-Test
kann
für
zwei
Stichproben
eingesetzt
werden,
besitzt
jedoch
ähnliche
Normalitätsanforderungen.
In
der
Regressionsanalyse
helfen
heteroskedastizitätsrobuste
Standardfehler
(z.
B.
White-
oder
Sandwich-Estimator).
Daten
können
auch
transformiert
oder
nichtparametrische
Verfahren
verwendet
werden
(z.
B.
Kruskal-Wallis-Test).
Praxis
und
Lehre
wird
sie
oft
als
Schritt
vor
der
Anwendung
standardparametrischer
Tests
durchgeführt,
um
geeignete
Methoden
auszuwählen.