Home

Entscheidungsbäumen

Entscheidungsbäume sind eine Methode des überwachten Lernens, die Vorhersagen oder Entscheidungen anhand eines baumartigen Modells trifft. Der Baum besteht aus einem Wurzelknoten, mehreren internen Knoten, die Tests an Merkmalen durchführen, und Blättern, die die Zielwerte oder Klassen liefern. Bei Classification-Bäumen entsprechen die Blätter Klassen, bei Regression-Bäumen numerische Werte.

Der Lernprozess ist ein rekursives Teilungsverfahren: zu jedem inneren Knoten wird das beste Merkmal und ggf.

Der Baum wächst, bis Stopp-Kriterien erreicht sind, etwa Reinheit einzelner Teilmengen, Minimalanzahl von Beobachtungen in einem

Entscheidungsbäume zeichnen sich durch Interpretierbarkeit aus, sind aber empfindlich gegenüber kleinen Datensatzänderungen und neigen zu Überanpassung

Typische Anwendungen umfassen Kreditbewertung, medizinische Entscheidungsunterstützung, Kundenklassifizierung und Fraud-Erkennung. Wichtige Algorithmen sind ID3, C4.5 und CART;

ein
Schwellenwert
gewählt,
um
die
Datenmenge
in
möglichst
reinere
Teilmengen
zu
zerlegen.
Gängige
Kriterien
sind
Entropie
bzw.
Information
Gain,
oder
der
Gini-Index
(beim
CART-Ansatz).
Ziel
ist
eine
möglichst
klare
Trennung
der
Klassen
oder
Minimierung
der
Varianz
im
Regressionfall.
Blatt
oder
eine
maximale
Baumtiefe.
Um
Überanpassung
zu
verhindern,
kommen
Pruning-Verfahren
oder
Einschränkungen
der
Baumtiefe
zum
Einsatz
(Pre-Pruning,
Post-Pruning).
Behandlung
fehlender
Werte,
Umgang
mit
kategorialen
und
numerischen
Merkmalen
unterscheiden
Typen.
bei
komplexen
Mustern.
Sie
liefern
aber
klare
Entscheidungsregeln,
können
aber
lineare
Grenzen
in
Merkmalsraum
benötigen
und
sind
oft
weniger
leistungsfähig
als
Ensemble-Methoden.
in
der
Praxis
treten
häufig
Random
Forests
oder
Gradient
Boosting-Modelle
auf,
die
viele
Bäume
kombinieren,
um
Stabilität
und
Genauigkeit
zu
erhöhen.