bayesianische
Bayesianische Statistik ist ein statistischer Paradigmenwechsel, der Wahrscheinlichkeiten als subjektive Grade der Überzeugung betrachtet. Im Kern nutzt sie Bayes’ Theorem, um eine vorherige Verteilung über Unbekanntes (Prior) mit den Informationen aus beobachteten Daten (Likelihood) zu einer aktualisierten Verteilung (Posterior) zu verbinden. Dadurch lässt sich Unsicherheit in Modellen und Parametern systematisch ausdrücken und aktualisieren, wenn neue Belege vorliegen.
Zentrale Konzepte sind Prior-, Likelihood- und Posteriorverteilung. Konjugate Priors erleichtern analytische Berechnungen, während für komplexe Modelle
Historisch geht die Bayesianische Statistik auf Thomas Bayes zurück; Laplace trug wesentlich zur Verbreitung bei. Im
Vorteile der Bayes-Statistik liegen in der probabilistischen Interpretation von Unsicherheit, der Einbeziehung von Vorwissen und der