MarkovKettenMonteCarloVerfahren
MarkovKettenMonteCarloVerfahren bezeichnet eine Klasse von Verfahren zur Generierung von Zufallsstichproben aus einer Zielverteilung π(x), typischerweise einer mehrdimensionalen Wahrscheinlichkeitsverteilung, aus der direkte Proben schwer zu erzeugen sind. Ziel ist es, durch Aufbau einer Markov-Kette, deren stationäre Verteilung gleich π ist, Stichproben zu erzeugen, die mit zunehmender Anzahl von Schritten der Verteilung π annähern.
Das zentrale Prinzip besteht darin, Übergangskerne P(x, x') zu wählen, die Ergodizität und Stetigkeit der Übergänge
Zu den bekanntesten Algorithmen gehören der Metropolis-Hastings-Algorithmus und das Gibbs-Sampling. Weitere Varianten umfassen Hamiltonian Monte Carlo,
Anwendungen finden sich in der Bayesschen Inferenz, Statistik, Physik, Chemie und Biologie sowie im maschinellen Lernen.
Historisch geht MCMC auf den Metropolis-Algorithmus (1953) zurück; Hastings erweiterte 1970 die Methode zu Metropolis-Hastings. Der