BoostingMethoden
BoostingMethoden bezeichnet eine Klasse von Ensemble-Verfahren im maschinellen Lernen, bei der mehrere schwache Modelle nacheinander trainiert werden. Jedes Modell versucht, die Fehler der vorherigen Modelle zu korrigieren, sodass das Endmodell durch gewichtete Addition der Teilmodelle eine bessere Leistung erzielt.
Das Grundprinzip besteht darin, die Trainingsgewichte so anzupassen, dass schwierige Beispiele stärker berücksichtigt werden. In der
Wichtige Algorithmen sind AdaBoost, Gradient Boosting, XGBoost, LightGBM und CatBoost. AdaBoost erhöht iterativ die Gewichte der
Vorteile: starke Leistungssteigerung mit relativ einfachen Basislearners, gute Flexibilität, Handling verschiedener Zielarten. Nachteile: Training kann zeitintensiv
Anwendungen: Klassifikation, Regression, Ranking; oft in Kaggle-Wettbewerben und Praxisdaten. Herausforderungen: Interpretierbarkeit gering, Modellgröße, Umgang mit fehlenden