Home

ImitationslernLiteratur

ImitationslernLiteratur bezeichnet die wissenschaftliche Literatur zum Imitationslernen (Imitation Learning), einem Forschungsgebiet der künstlichen Intelligenz und Robotik, in dem Agenten Verhaltensweisen erlernen, indem sie Demonstrationen eines Experten nachahmen. Im Gegensatz zu rein belohnungsbasierten Lernansätzen basiert das Lernen oft auf beobachteten Sequenzen von Zustand-Aktion-Paaren statt auf expliziten Belohnungen.

Zu den Kernansätzen zählen das Verhaltensklonieren (Behavioral Cloning), bei dem ein Modell durch überwachtes Lernen aus

Datenbasis sind Demonstrationen, meist von menschlichen Experten, deren Qualität einen großen Einfluss auf den Lernerfolg hat.

Historisch lösen frühe Arbeiten in den 1990er bis frühen 2000er Jahren das Problem der Imitation, darunter

Demonstrationsdaten
trainiert
wird;
das
Inverse
Verstärkungslernen
(Inverse
Reinforcement
Learning,
IRL),
das
versucht,
eine
Belohnungsfunktion
zu
schätzen,
sodass
der
demonstrierte
Verlauf
optimal
erscheint;
sowie
Lehrlings-
oder
Apprenticeship-Learning-Varianten.
Datensammelorientierte
Methoden
wie
DAgger
(Dataset
Aggregation)
adressieren
das
Verteilungsverschiebungsproblem,
das
entsteht,
wenn
der
Agent
in
Zuständen
agiert,
die
in
den
Demonstrationen
nicht
stark
vertreten
sind.
In
jüngerer
Zeit
gewinnen
Generative
Adversarial
Imitation
Learning
(GAIL)
und
verwandte
Ansätze
an
Bedeutung,
die
Imitation
als
Verteilungsmatching
zwischen
den
Demonstrationen
und
der
vom
Agenten
erzeugten
Politik
formulieren.
Die
Bewertung
konzentriert
sich
auf
Task-Erfolg,
Nachbildung
des
Demonstrationsverhaltens
sowie
Generalisierung
auf
neue
Zustände.
Typische
Anwendungsfelder
sind
Robotik,
Manipulation,
autonome
Fahrzeuge
und
Spielintelligenz;
gängige
Benchmarks
umfassen
simulierte
Umgebungen
sowie
reale
Datensätze
und
videobasierte
Demonstrationen.
Pomerleau
mit
Verhaltensklonierung
und
Ng
&
Russell
mit
IRL;
DAgger
und
GAIL
markieren
spätere
Meilensteine.
Das
Feld
verzeichnet
weiterhin
rasche
Entwicklungen,
inkl.
Verbindung
mit
Reinforcement
Learning,
Sicherheit
und
Transferlernen.
Herausforderungen
bleiben
Verteilungsverschiebung,
Datenqualität,
Skalierbarkeit
und
robuster
Transfer
auf
neue
Aufgaben.