EMMethoden
EMMethoden, kurz für Expectation-Maximization-Methoden, sind eine Klasse von Algorithmen zur Maximum-Likelihood-Schätzung in statistischen Modellen, die latente Variablen enthalten oder bei denen Daten fehlen. Der EM-Algorithmus wurde 1977 von Dempster, Laird und Rubin eingeführt. Er arbeitet in zwei Schritten, die in jeder Iteration wiederholt werden: E-Schritt (Erwartung) berechnet die bedingte Verteilung der latenten Variablen bzw. der fehlenden Daten gegeben die aktuellen Parameter; M-Schritt (Maximierung) maximiert die erwartete vollständige Log-Likelihood bezüglich der Parameter und liefert neue Werte. Die Likelihood steigt monoton an und konvergiert typischerweise gegen eine lokale Maximum-Likelihood-Lösung.
Typische Anwendungen umfassen Schätzungen in Mischmodellen, insbesondere Gaußsche Mischungen, Hidden-Markov-Modelle, Faktormodelle mit fehlenden Daten sowie Imputation
Varianten und Erweiterungen umfassen Generalized EM (GEM), bei dem die M-Schritt-Optimierung nicht vollständig maximiert wird, sowie
Historisch war der EM-Algorithmus ein Meilenstein in Statistik und maschinellem Lernen und wird in Softwarepaketen von