Home

bayesianische

Bayesianische Statistik ist ein statistischer Paradigmenwechsel, der Wahrscheinlichkeiten als subjektive Grade der Überzeugung betrachtet. Im Kern nutzt sie Bayes’ Theorem, um eine vorherige Verteilung über Unbekanntes (Prior) mit den Informationen aus beobachteten Daten (Likelihood) zu einer aktualisierten Verteilung (Posterior) zu verbinden. Dadurch lässt sich Unsicherheit in Modellen und Parametern systematisch ausdrücken und aktualisieren, wenn neue Belege vorliegen.

Zentrale Konzepte sind Prior-, Likelihood- und Posteriorverteilung. Konjugate Priors erleichtern analytische Berechnungen, während für komplexe Modelle

Historisch geht die Bayesianische Statistik auf Thomas Bayes zurück; Laplace trug wesentlich zur Verbreitung bei. Im

Vorteile der Bayes-Statistik liegen in der probabilistischen Interpretation von Unsicherheit, der Einbeziehung von Vorwissen und der

häufig
numerische
Verfahren
wie
Markov-Ketten-Monte-Carlo
(MCMC)
oder
Variationsinferenz
verwendet
werden.
Modelle
werden
oft
hierarchisch
aufgebaut,
um
unterschiedliche
Ebenen
von
Unsicherheit
abzubilden.
Der
Modellvergleich
erfolgt
über
Bayes-Faktoren,
oder
über
Kriterien
wie
WAIC
und
DIC.
20.
Jahrhundert
verbanden
Forscher
wie
Jeffreys,
Box
und
Gelman
die
bayesianische
Logik
mit
modernen
Statistikmethoden.
In
der
Praxis
hat
die
Bayes-Statistik
in
Wissenschaften,
Medizin,
Umweltforschung,
Wirtschaft
und
in
der
Entwicklung
von
Algorithmen
im
maschinellen
Lernen
breite
Anwendung
gefunden.
flexiblen
Modellierung
komplexer
Abhängigkeiten.
Kritiker
verweisen
auf
abhängige
Ergebnisse
von
Priors
und
auf
den
hohen
Rechenaufwand
bei
komplexen
Modellen.
In
vielen
Bereichen
dient
sie
heute
als
ergänzender,
oft
bevorzugter
Ansatz
neben
der
frequentistischen
Statistik.