Home

OutofBagFehler

OutofBagFehler, oft als Out-of-Bag-Fehler oder OOB-Fehler bezeichnet, ist eine Schätzung der Generalisierungsleistung eines baggingbasierten Modells wie Random Forests. Beim Bagging werden für jeden Basis- bzw. Entscheidungsbaum Bootstrap-Stichproben aus dem Trainingsdatensatz gezogen. Die Stichprobe enthält im Mittel etwa 63 Prozent der Originaldaten; die verbleibenden Daten, die sogenannten Out-of-Bag-Beispiele, dienen als integriertes Validierungssample.

Zur Berechnung des OOB-Fehlers werden für jedes Datenbeispiel alle Bäume herangezogen, deren Bootstrap-Stichprobe es nicht enthält.

Vorteile: Der OOB-Fehler liefert eine interne Schätzung der Generalisierung, ohne dass ein separates Validierungsset erforderlich ist.

Einschränkungen: Die Zuverlässigkeit der OOB-Schätzung hängt von Faktoren wie Stichprobengröße, Klassenverteilung und dem verwendeten Basis‑Estimator ab.

Die
Vorhersagen
dieser
Bäume
werden
kombiniert
(bei
Klassifikation
durch
Abstimmung
der
Mehrheit;
bei
Regression
durch
Mittelwert).
Das
OOB-Label
des
Beispiels
wird
mit
dem
tatsächlichen
Zielwert
verglichen.
Der
OOB-Fehler
ist
der
über
alle
Beispiele
gemittelte
Fehler,
z.
B.
die
Fehlerrate
bei
der
Klassifikation
oder
der
mittlere
quadratische
Fehler
bei
der
Regression.
Er
wird
häufig
beim
Training
von
Random
Forests
verwendet,
um
Parameter
wie
die
Anzahl
der
Bäume
zu
beurteilen
oder
zu
validieren.
Sie
ist
kein
vollständiger
Ersatz
für
einen
unabhängigen
Test-
oder
Validierungssatz
und
kann
bei
kleinen
Datensätzen
oder
stark
unausgeglichenen
Klassen
variieren.
Dennoch
bietet
sie
eine
bequeme,
kostengünstige
Methode
zur
Beurteilung
der
Modellleistung
während
des
Trainings.