Bayesische
Bayesische Statistik, auch Bayessche Inferenz genannt, bezeichnet eine Familie von Methoden in Wahrscheinlichkeitstheorie und Statistik, die auf dem Satz von Bayes basieren. Zentral ist die Interpretation von Wahrscheinlichkeit als Grad der Überzeugung oder subjektiver Glaubenswahrscheinlichkeit, der sich anhand neuer Evidenz verändert.
Das Kernprinzip ist der Satz von Bayes: P(A|D) = P(D|A) · P(A) / P(D). Dabei steht P(A) für die
Wichtig ist der explizite Umgang mit Unsicherheit. Bayessche Methoden erlauben das Quantifizieren von Unsicherheit in Parametern
Anwendungen finden sich in Statistik, Maschinenlernen, Medizin, Finanzwesen und mehr. Beispiele umfassen Spam-Filter, medizinische Entscheidungsunterstützung, A/B-Tests
Historisch geht die Idee auf Thomas Bayes zurück; die Theorem-Formalisierung wurde im 18. Jahrhundert von Pierre-Simon