Home

Bayesschen

Bayessche Statistik, oft auch Bayessche Inferenz genannt, bezieht sich auf einen Ansatz in der Wahrscheinlichkeitstheorie und Statistik, der Bayes' Theorem verwendet, um Wahrscheinlichkeiten als Maße des subjektiven Glaubens zu interpretieren und mit neuen Daten zu aktualisieren.

Kernidee ist die Kombination von Vorwissen (Prior) mit der Wahrscheinlichkeitslage der beobachteten Daten (Likelihood) zu einer

Historisch geht der Begriff auf Thomas Bayes zurück; weiterentwickelt wurde er von Laplace und in der modernen

Anwendungen finden sich in Medizin, Biostatistik, Finanzen, Robotik, maschinellem Lernen und Datenanalyse. Typische Beispiele: medizinische Diagnosen,

Im Vergleich zu frequentistischen Ansätzen liefern Bayessche Methoden probabilistische Aussagen über Parameter und explizite Unsicherheiten; sie

aktualisierten
Überzeugung
(Posterior).
Bayes'
Theorem
besagt,
dass
Posterior
proportional
zur
Likelihood
multipliziert
mit
dem
Prior
ist;
im
Detail
P(θ|D)
∝
P(D|θ)
P(θ).
Statistik
durch
formale
Wahrscheinlichkeitsmodelle
und
Axiome
der
Wahrscheinlichkeit
verstetigt.
Zentrale
Elemente
sind
Prior-Verteilungen,
Likelihood-Funktion
und
Posterior-Verteilungen;
oft
kommen
konjugierte
Priors,
hierarchische
Modelle
und
Bayes-Netzwerke
zum
Einsatz.
Zur
Berechnung
der
Posterior-Verteilungen
kommen
numerische
Methoden
wie
Markov-Ketten-Monte-Carlo
(MCMC)
oder
Variationsinferenz
zum
Einsatz.
Spam-Filter,
adaptive
A/B-Tests,
zeitabhängige
Schätzung
mit
Kalman-Filtern.
ermöglichen
die
systematische
Einbeziehung
von
Vorwissen.
Herausforderungen
sind
die
Subjektivität
der
Priors,
Empfindlichkeit
gegenüber
Vorannahmen
und
hoher
Rechenaufwand
bei
komplexen
Modellen.