Home

Wahrscheinlichkeit

Wahrscheinlichkeit ist ein mathematisches Konzept zur Beschreibung der Unsicherheit bei zufälligen Ereignissen. Formal wird sie durch ein Wahrscheinlichkeitsmaß P definiert, das auf dem Ergebnisraum Ω eines Zufallsexperiments liegt. Die Axiome besagen: P(Ω)=1, P(A)≥0 für alle Ereignisse A ⊆ Ω, und P(A∪B)=P(A)+P(B) für disjunkte Ereignisse A und B. Diese Kolmogorov-Axiome bilden die Grundlage der modernen Wahrscheinlichkeitsrechnung.

Zufallsexperimente liefern Ergebnisräume Ω (z. B. das Werfen eines Würfels). Ein Ereignis ist eine Teilmenge von Ω. Wahrscheinlichkeiten

Wichtige Konzepte sind bedingte Wahrscheinlichkeit P(A|B)=P(A∩B)/P(B) für P(B)>0 und Unabhängigkeit, bei der P(A∩B)=P(A)P(B). Zur Beschreibung von

Interpretationen der Wahrscheinlichkeit unterscheiden sich: Der Frequentist betrachtet Wahrscheinlichkeiten als langfristige relative Häufigkeiten, der Bayesianische Ansatz

Anwendungen reichen von Statistik und Naturwissenschaften über Informatik bis hin zu Wirtschaft und Technik. Die moderne

können
diskret
sein,
z.
B.
p(x)=P(X=x)
für
eine
Zufallsvariable
X,
oder
stetig,
z.
B.
durch
eine
Dichtefunktion
f
mit
der
Verteilungsfunktion
F(x)=P(X≤x).
Verteilungen
dienen
Erwartungswert
E[X]
und
Varianz
Var(X).
Sätze
wie
Bayes'
Theorem
P(A|B)=P(B|A)P(A)/P(B)
verknüpfen
Wahrscheinlichkeiten
unterschiedlicher
Ereignisse.
interpretiert
sie
als
Grad
der
Überzeugung,
aktualisiert
durch
neue
Daten
(Prior-
und
Posterior-Verteilung).
Theorie
wurde
im
20.
Jahrhundert
durch
Bernoulli,
Laplace,
Kolmogorov
und
andere
entwickelt.