Home

Strukturlernen

Strukturlernen ist ein Teilgebiet der Statistik und des maschinellen Lernens, das die Struktur probabilistischer grafischer Modelle aus Daten schätzt. Im Fokus steht die Bestimmung, welche Variablen direkt miteinander verknüpft sind, häufig in Form von Graphen wie Bayesschen Netzen (gerichtete Acyklische Graphen) oder Markov-Netzen (ungerichtete Graphen). Strukturlernen unterscheidet sich vom Parameterlernen, das lediglich die Werte der Modellparameter schätzt, während die Grafikstruktur die Abhängigkeiten zwischen Variablen definiert.

Eine zentrale Unterscheidung erfolgt zwischen ungerichteten Graphen (Markov-Netze) und gerichteten, azyklischen Graphen (Bayes Netze). In Bayes

Methodisch werden drei Hauptansätze unterschieden: Score-based Methoden bewerten ganze Graphen mit einer Gütefunktion (z. B. BIC/MDL

Herausforderungen des Strukturlernens umfassen die Tatsache, dass der Suchraum groß oder NP-schwer ist, identifikationsprobleme aufgrund äquivalenter

Siehe auch: Graphische Modelle, Bayes-Netzwerk, Markov-Netzwerk, Kausale Entdeckung.

Netzen
werden
Abhängigkeiten
durch
gerichtete
Kanten
und
eine
topologische
Reihenfolge
festgelegt,
während
in
Markov-Netzen
die
Abhängigkeiten
durch
ungerichtete
Kanten
beschrieben
werden.
Strukturlernen
umfasst
sowohl
das
Erkennen
der
Existenz
von
Kanten
als
auch
deren
Orientierung
(bei
Bayes
Netzen).
oder
bayessche
Scores)
und
durchsuchen
den
Graphenraum
nach
besseren
Strukturen;
Constraint-based
Methoden
verwenden
bedingte
Unabhängigkeitstests,
um
eine
Struktur
zu
rekonstruieren
(z.
B.
PC-Algorithmus);
Hybridmethoden
kombinieren
beide
Ansätze,
um
Vorteile
beider
Richtungen
zu
nutzen.
Graphenklassen,
Annahmen
wie
Faithfulness
und
Bijäufigkeit
sowie
Probleme
durch
versteckte
Variablen
oder
Messfehler.
Typische
Anwendungsfelder
liegen
in
der
Bioinformatik,
Genomik,
Sozial-
und
Finanznetzen
sowie
in
der
Kausaldiskussion,
wo
Strukturwissen
zur
Modellierung
von
Abhängigkeiten
und
zur
Kausalauslegung
genutzt
wird.