Home

Verteilungsfolgen

Verteilungsfolgen bezeichnen in der Wahrscheinlichkeitslehre Folgen von Verteilungsfunktionen F_n, also Funktionen F_n: R → [0,1]. Eine Verteilungsfunktion ist monotone nicht fallend, rechtsstetig und erfüllt lim_{x→-∞} F_n(x) = 0 sowie lim_{x→+∞} F_n(x) = 1. Die Folge F_n beschreibt die Verteilung einer Folge von Zufallsvariablen bzw. die Verteilung einer Folge von Wahrscheinlichkeitsmaßen.

Konvergenz einer Verteilungsfolge bedeutet, dass F_n gegen eine Grenzverteilungsfunktion F konvergiert, wenn für alle Punkte x,

Wichtige Äquivalenzen und Theoreme: Mit dem Portmanteau-Theorem lassen sich verschiedene Formulierungen der Verteilungskonvergenz verbinden. Unter der

Beispiele und Anwendungen: Die empirische Verteilungsfunktion F_n aus Stichproben X_1,...,X_n ist ein typisches Beispiel einer Verteilungsfolge.

Zusammenfassung: Verteilungsfolgen liefern das formale Gerüst zur Untersuchung, wie sich Verteilungen von Zufallsvariablen oder von Wahrscheinlichkeitsmaßen

an
denen
F
stetig
ist,
der
Grenzwert
lim_n
F_n(x)
=
F(x)
gilt.
Diese
Form
der
Konvergenz
wird
Verteilungskonvergenz
oder
schwache
Konvergenz
der
zugrunde
liegenden
Wahrscheinlichkeitsmaße
genannt.
An
Sprungstellen
von
F
kann
die
Konvergenz
scheitern.
Annahme
existieren
oft
Skorokhod-Repräsentationen,
die
eine
fast
sichere
Konvergenz
von
Zufallsvariablen
mit
gegebener
Verteilung
ermöglichen.
Die
Konvergenz
der
Verteilungsfunktionen
entspricht
der
schwachen
Konvergenz
der
zugehörigen
Wahrscheinlichkeitsmaße.
Der
Glivenko-Cantelli-Satz
besagt,
dass
F_n
fast
sicher
gleich
der
wahren
Verteilungsfunktion
F
ist,
gemessen
durch
sup_x
|F_n(x)
-
F(x)|
→
0.
In
der
Statistik
dient
Verteilungskonvergenz
der
Herleitung
asymptotischer
Ergebnisse
(Hypothesentests,
Konfidenzintervalle,
Zentraler
Grenzwertsatz).
in
der
Folge
ändern.
Sie
bilden
eine
zentrale
Grundlage
der
Theorie
der
schwachen
Konvergenz,
der
empirischen
Prozesse
und
der
asymptotischen
Statistik.