resamplingbasierte
Resamplingbasierte Methoden beziehen sich auf statistische Verfahren, die wiederholtes Ziehen von Stichproben aus den vorhandenen Daten nutzen, um Verteilungen von Schätzern abzuleiten, Standardfehler zu schätzen, Bias zu beurteilen oder die Leistung von Vorhersagemodellen zu bewerten, ohne starke parametrisierte Annahmen über die zugrunde liegende Verteilung zu treffen.
Zu den bekanntesten Verfahren gehören Bootstrap, Jackknife, Permutationstests und Kreuzvalidierung. Beim Bootstrap werden Stichproben mit Zurücklegen
Anwendungsgebiete: Der Bootstrap dient oft der Schätzung von Konfidenzintervallen und Bias von Standardschätzern; Jackknife liefert Robustheits-
Historisch wurden resamplingbasierte Methoden in der Statistik vor allem durch Bradley Efron eingeführt (Bootstrap, 1979). Seitdem
Zu den Vorteilen gehören Flexibilität und geringe Abhängigkeit von Verteilungsmodellen; Nachteile sind hoher Rechenaufwand und potenzielle