Home

Unabhängigkeitstests

Unabhängigkeitstests sind statistische Verfahren zur Prüfung, ob zwei oder mehr Zufallsvariablen oder Merkmale unabhängig voneinander sind. Formal bedeutet Unabhängigkeit, dass die gemeinsame Verteilung durch das Produkt der Randverteilungen beschrieben wird. Solche Tests sind zentral in der Analyse von kategorialen Daten, kontinuierlichen Messungen und Zeitreihen und finden Anwendung in Wissenschaft und Praxis, etwa in der Genomik, der Marktforschung oder im maschinellen Lernen.

Für kategoriale Daten in Kontingenztafeln sind der Chi-Quadrat-Test der Unabhängigkeit, der Fisher-exakte Test für kleine Stichproben

Für Zeitreihen liefert der Ljung-Box-Test Hinweise darauf, ob die Residuen über verschiedene Verzögerungen hinweg unabhängig verteilt

Interpretation erfolgt über die Nullhypothese H0: X und Y sind unabhängig. Ein kleiner p-Wert führt zur Ablehnung

und
der
G-Test
gängige
Verfahren.
Wesentliche
Voraussetzungen
betreffen
Stichprobengröße
und
erwartete
Häufigkeiten;
bei
kleinen
Tabellen
wird
oft
der
exakte
Test
bevorzugt.
Bei
kontinuierlichen
oder
gemischten
Daten
wird
oft
die
Stärke
der
Abhängigkeit
durch
Korrelationsmaße
gemessen,
zum
Beispiel
der
Pearson-Korrelationskoeffizient
oder
Rangkorrelationsmaße
wie
Spearman
bzw.
Kendall-Tau.
Es
ist
wichtig
zu
beachten,
dass
eine
Nullkorrelation
nicht
zwangsläufig
Unabhängigkeit
bedeutet,
insbesondere
bei
nicht-normalverteilten
Variablen.
sind.
Informations-theoretische
Ansätze
prüfen
Unabhängigkeit
durch
gemeinsame
Information,
oft
mithilfe
von
Mutual
Information
und
entsprechenden
Permutationstests.
Anwendungskontexte
reichen
von
der
Prüfform
in
Experimenten
über
die
Merkmalsauswahl
in
der
Statistik
bis
zur
Validierung
von
Annahmen
in
Modellen.
von
H0
bei
vorgegebenem
Signifikanzniveau;
bei
vielen
Tests
ist
eine
Anpassung
für
mehrfache
Tests
sinnvoll.