ensemblebaserad
Ensemblebaserad metodik inom statistik och maskininlärning går ut på att kombinera flera modeller för att förbättra prediktiv noggrannhet jämfört med en ensam modell. Idén är att olika modeller fångar olika mönster i data och att deras samlade prediktioner blir mer tillförlitliga än en enskild modell.
Vanliga tekniker är bagging, boosting och stacking. Bagging tränar flera modeller på olika bootstrap-samplingar av träningen
Användningar inkluderar klassificering och regressionsuppgifter inom områden som finansiell prognos, medicinsk bildanalys och sensordata. Fördelar är
Historiskt utvecklades idén med bagging på 1990-talet av Leo Breiman och boostings framväxt av Freund och Schapire