Home

unkorrelierten

Unkorreliertheit beschreibt in der Statistik den Zustand zweier Zufallsvariablen X und Y, bei dem die Kovarianz Cov(X,Y) gleich null ist. Formal gilt Cov(X,Y) = E[(X − E[X])(Y − E[Y])] = 0. Die lineare Beziehung zwischen X und Y wird oft durch den Pearson-Korrelationskoeffizienten r gemessen, der r = Cov(X,Y) / (σ_X σ_Y ist. Ist Cov(X,Y) null, folgt daraus, dass r = 0; umgekehrt muss r nicht unbedingt null sein, wenn Cov(X,Y) nicht exakt null ist.

Zusammenhang mit Unabhängigkeit: Unkorreliertheit bedeutet nicht notwendigerweise Unabhängigkeit. Unabhängige Zufallsvariablen haben stets Kovarianz null, aber null

Mehrere Variablen: Unkorreliertheit kann sich auf mehrere Variablen erstrecken, sodass die Kovarianzmatrix diagonal ist und die

Anwendungen: Unkorreliertheit wird in der Datenvorverarbeitung, der linearen Regression, Signalverarbeitung und Zeitreihenanalyse genutzt. Sie erleichtert Modelle

Einschränkungen: Unkorreliertheit erfasst nur lineare Beziehungen; nichtlineare Abhängigkeiten bleiben unbemerkt. Stichprobenbezogene Schätzungen des Korrelationskoeffizienten r benötigen

Kovarianz
impliziert
keine
Unabhängigkeit
im
Allgemeinen.
Ein
bekanntes
Gegenbeispiel
ist
X
gleich
verteilt
auf
[-1,1]
und
Y
=
X^2,
woraus
Cov(X,Y)
=
0
folgt,
Y
aber
eindeutig
von
X
abhängt.
Bei
einer
Normalverteilung
gilt
jedoch:
Ist
X
und
Y
gemeinsam
normal
und
unkorreliert,
dann
sind
sie
unabhängig.
Variablen
zueinander
unkorreliert
sind.
In
der
Praxis
werden
Daten
oft
durch
eine
Whitening-Transformation
so
transformiert,
dass
die
Komponenten
unkorreliert
sind,
etwa
als
Vorstufe
für
Verfahren
wie
die
Hauptkomponentenanalyse
(PCA).
und
Interpretation,
da
lineare
Zusammenhänge
zwischen
Variablen
reduziert
werden.
Tests,
Konfidenzintervalle
und
Annahmen
zur
Verteilung
der
Daten.