Home

Unkorreliertheitsbedingungen

Unkorreliertheitsbedingungen bezeichnen Annahmen über die Korrelation von Zufallsvariablen, nach denen bestimmte Paare oder Gruppen von Variablen unkorreliert zueinander sind. Formal bedeutet Unkorreliertheit, dass die Kovarianz zweier Variablen Xi und Xj (mit i ≠ j) gleich Null ist. Für Vektoren X = (X1, ..., Xn) bedeutet dies, dass die Kovarianzmatrix Cov(X) diagonal ist, also Cov(Xi, Xj) = 0 für alle i ≠ j.

Unkorreliertheit führt zu bestimmten Vereinfachungen, ist jedoch keine Allgemeingültigkeit der Abhängigkeit. Insbesondere gilt: Xi und Xj

Anwendungen finden sich in der Zeitreihen- und Regressionsanalyse. In der Zeitreihe spricht man von unkorrelierten Fehlern

Zusammengefasst bilden Unkorreliertheitsbedingungen eine zentrale, aber begrenzte Annahme zur Vereinfachung statistischer Modelle, die Klarheit über Abhängigkeiten

unkorreliert
⇒
E[(Xi
−
E[Xi])(Xj
−
E[Xj])]
=
0,
äquivalent
zu
E[Xi
Xj]
=
E[Xi]
E[Xj].
Aber
Unkorreliertheit
impliziert
nicht
Unabhängigkeit;
von
Unabhängigkeit
folgt
Unkorreliertheit,
aber
das
Umgekehrte
nicht.
Ein
bekanntes
Gegenbeispiel:
X
sei
Standardnormal,
Y
=
X^2
−
1;
dann
sind
X
und
Y
unkorreliert,
aber
nicht
unabhängig.
Bei
einer
multivariaten
Normalverteilung
bedeutet
Unkorreliertheit
jedoch
Unabhängigkeit
aller
linearen
Kovarianz-Beziehungen.
oder
Rauschprozessen,
wenn
E[εt
εs]
=
0
für
t
≠
s
gilt;
zusätzlich
spricht
man
von
White
Noise,
wenn
Var(εt)
konstant
ist.
In
der
linearen
Regression
erfordern
die
klassischen
Schätztheorien
oft,
dass
die
Fehler
unkorreliert
mit
den
Regressoren
bzw.
untereinander
sind
oder
exogen
gegeben
sind,
damit
OLS-Betawerte
effizient
und
unverzerrt
bleiben
(Gauss-Markov
unter
weiteren
Annahmen).
schafft,
jedoch
Unabhängigkeit
nicht
ersetzt.