Home

Zufallsvektor

Ein Zufallsvektor X ist eine messbare Abbildung von einem Wahrscheinlichkeitsraum (Ω, F, P) nach R^n. Er ordnet jedem ω ∈ Ω den Vektor X(ω) = (X1(ω), ..., Xn(ω)) zu, wobei die Komponenten Xi Zufallsvariablen sind. Damit besitzt X eine mehrdimensionale Verteilung, die das gemeinsame Verhalten der Komponenten beschreibt.

Die Verteilung eines Zufallsvektors wird als seine Verteilung oder als Gesetz von X bezeichnet. Sie ist ein

Erwartungswert und Varianzstruktur eines Zufallsvektors lassen sich komponentenweise definieren. Der Erwartungswert ist E[X] = (E[X1], ..., E[Xn]). Die

Transformationen und Unabhängigkeiten: Für eine messbare Abbildung g:R^n → R^m ergibt Y = g(X) einen neuen Zufallsvektor. Zwei

Wahrscheinlichkeitsmaß
auf
dem
Raum
R^n,
definiert
durch
P_X(B)
=
P(X^{-1}(B))
für
B
⊆
R^n.
Die
gemeinsame
Verteilungsfunktion
F_X
lautet
F_X(x)
=
P(X1
≤
x1,
...,
Xn
≤
xn).
Falls
eine
Dichte
existiert,
entspricht
sie
der
gemeinsamen
Dichte
f_X,
die
mit
f_X(x)
als
Integrand
in
den
Integralen
der
Wahrscheinlichkeitsmassen
verknüpft
ist.
Kovarianzmatrix
Cov(X)
=
E[(X
−
E[X])(X
−
E[X])^T]
ist
eine
n×n-Matrix,
deren
Einträge
Cov(Xi,
Xj)
die
Kovarianzen
der
jeweiligen
Komponenten
darstellen.
Sie
gibt
Aufschluss
über
lineare
Abhängigkeiten
zwischen
den
Komponenten.
Falls
E[||X||]
<
∞
gilt,
besitzt
X
auch
Momenten
wie
die
zweite
Ordnung;
weitere
Momente
führen
zu
Momenten-Vektoren
oder
Zwangsverteilungen.
Zufallsvektoren
X
und
Z
sind
unabhängig,
wenn
ihre
gemeinsame
Verteilung
das
Produkt
der
Randverteilungen
ist.
Zufallsvektoren
treten
häufig
in
multivariaten
Modellen,
Korrelationstests
und
multivariaten
Normalverteilungen
auf.