ResamplingStrategien
Resampling-Strategien, auch Resampling-Verfahren genannt, bezeichnen Verfahren in Statistik und maschinellem Lernen, die aus wiederholtem Ziehen von Stichproben aus einem vorhandenen Datensatz neue Trainings- und Testmengen erzeugen. Ziel ist es, die Stabilität von Schätzungen, die Generalisierbarkeit von Modellen oder die Verteilung von Kennwerten besser abzuschätzen. Im Gegensatz zu rein festen Aufteilungen verwenden diese Methoden mehrere Datenaufteilungen, um Stichprobenvariabilität abzubilden.
Zu den bekanntesten Resampling-Strategien gehören Kreuzvalidierung (z. B. K-Fold, Stratified K-Fold), Leave-One-Out und Monte-Carlo-Cross-Validation. Beim Bootstrap
Für zeitabhängige Daten gelten spezialisierte Ansätze, die die Reihenfolge beibehalten, etwa rolling-origin- oder rolling-window-Methoden; hier wird
Anwendung finden Resampling-Strategien vor allem in der Validierung von Modellen, beim Hyperparameter-Tuning, der Einschätzung der Unsicherheit
Siehe auch: Kreuzvalidierung, Bootstrap, Jackknife, Zeitreihen-Validierung.