Home

Bayesische

Bayesische Statistik, auch Bayessche Inferenz genannt, bezeichnet eine Familie von Methoden in Wahrscheinlichkeitstheorie und Statistik, die auf dem Satz von Bayes basieren. Zentral ist die Interpretation von Wahrscheinlichkeit als Grad der Überzeugung oder subjektiver Glaubenswahrscheinlichkeit, der sich anhand neuer Evidenz verändert.

Das Kernprinzip ist der Satz von Bayes: P(A|D) = P(D|A) · P(A) / P(D). Dabei steht P(A) für die

Wichtig ist der explizite Umgang mit Unsicherheit. Bayessche Methoden erlauben das Quantifizieren von Unsicherheit in Parametern

Anwendungen finden sich in Statistik, Maschinenlernen, Medizin, Finanzwesen und mehr. Beispiele umfassen Spam-Filter, medizinische Entscheidungsunterstützung, A/B-Tests

Historisch geht die Idee auf Thomas Bayes zurück; die Theorem-Formalisierung wurde im 18. Jahrhundert von Pierre-Simon

a
priori-Wahrscheinlichkeit
von
A,
P(D|A)
für
die
Likelihood,
P(D)
für
die
Evidenz
und
P(A|D)
für
die
a
posteriori-Wahrscheinlichkeit
von
A
nach
Berücksichtigung
der
Daten
D.
Praktisch
bedeutet
dies,
dass
man
Vorwissen
(Prior)
mit
den
Daten
(Likelihood)
kombiniert,
um
eine
aktualisierte
Wahrscheinlichkeitsverteilung
(Posterior)
zu
erhalten.
und
Vorhersagen,
einschließlich
der
Möglichkeit,
Vorwissen
durch
Prior-Verteilungen
abzubilden.
Gegenüber
dem
Frequentismus
wird
die
Interpretation
von
Wahrscheinlichkeit
als
Grad
der
Überzeugung
betont,
wobei
Priors
je
nach
Kontext
informativ
oder
nicht
informativ
gewählt
werden
können.
In
vielen
Modellen
ermöglichen
konjugierte
Priors
analytische
Lösungen;
oft
erfolgt
die
Berechnung
jedoch
numerisch
mittels
Markov-Chain-Monte-Carlo-Methoden
oder
Variationsinference.
und
Empfehlungssysteme.
Erweiterungen
umfassen
Bayessche
Netze
zur
Modellierung
von
Abhängigkeiten,
hierarchische
Modelle
und
nichtparametrische
Bayes-Verfahren
wie
der
Dirichlet-Prozess.
Laplace
weiterentwickelt.
Bayessche
Methoden
haben
sich
zu
einem
zentralen
Ansatz
in
der
modernen
Datenanalyse
etabliert.