EnsembleLernens
Ensemblelernen bezeichnet Verfahren im maschinellen Lernen, die mehrere Basismodelle trainieren und deren Vorhersagen zu einer einzigen Entscheidung zusammenführen. Ziel ist es, die Vorhersageleistung robuster und genauer zu machen als ein Einzelmodell, indem Varianz reduziert, Bias gemindert und Generalisierung verbessert wird.
Zu den Hauptansätzen gehören Bagging, Boosting und Stacking. Bagging trainiert Modelle auf unterschiedlichen Stichproben der Trainingsdaten
Boosting arbeitet sequentiell: Jedes neue Modell versucht, Fehler der vorherigen Modelle zu korrigieren, wodurch schwer zu
Stacking kombiniert die Vorhersagen mehrerer unterschiedlicher Basismodelle mithilfe eines Meta-Modells, das aus den Ausgaben der Basismodelle
Vorteile von Ensemblelernen umfassen häufig höhere Genauigkeit, bessere Robustheit und bessere Generalisierung. Zu den Nachteilen zählen
Historisch entstand Ensemblelernen in den 1990er-Jahren mit Bagging-Ansätzen von Breiman; Boosting-Methoden wie AdaBoost entwickelten sich bald