Bayesschen
Bayessche Statistik, oft auch Bayessche Inferenz genannt, bezieht sich auf einen Ansatz in der Wahrscheinlichkeitstheorie und Statistik, der Bayes' Theorem verwendet, um Wahrscheinlichkeiten als Maße des subjektiven Glaubens zu interpretieren und mit neuen Daten zu aktualisieren.
Kernidee ist die Kombination von Vorwissen (Prior) mit der Wahrscheinlichkeitslage der beobachteten Daten (Likelihood) zu einer
Historisch geht der Begriff auf Thomas Bayes zurück; weiterentwickelt wurde er von Laplace und in der modernen
Anwendungen finden sich in Medizin, Biostatistik, Finanzen, Robotik, maschinellem Lernen und Datenanalyse. Typische Beispiele: medizinische Diagnosen,
Im Vergleich zu frequentistischen Ansätzen liefern Bayessche Methoden probabilistische Aussagen über Parameter und explizite Unsicherheiten; sie