Ensemblemetoder
Ensemblemetoder är tekniker inom maskininlärning där flera modellutgångar kombineras för att förbättra prediktionsnoggrannhet jämfört med en enskild modell. Syftet är att utnyttja olika modeller komplementära styrkor och minska olika felkällor, såsom hög varians eller bias, vilket ofta leder till bättre generalisering.
Bagging, eller bootstrap aggregating, bygger flera träningsuppsättningar genom återläggning och tränar en modell på varje uppsättning.
Boosting bygger modeller i sekvens där varje ny modell försöker korrigera felen hos föregående modeller. Prestandan
Stacking och voting är andra strategier. Stacking använder olika typer av basmodeller i första lagret och tränar
Fördelar inkluderar ökad noggrannhet, bättre robusthet och minskad risk för överanpassning jämfört med en ensam modell.