Home

Grundmodelle

Grundmodelle, auch Foundation Models genannt, bezeichnen eine Klasse von großen, generalistischen KI-Modellen, die auf umfangreichen, heterogenen Datensätzen vortrainiert werden, um Fundamentalfähigkeiten bereitzustellen, die sich auf eine breite Palette von Aufgaben übertragen lassen. Sie ermöglichen Zero-shot- oder Few-shot-Lernen und dienen als Bausteine für spezialisierte Systeme durch Feinabstimmung, Adaptertechniken oder Prompting.

In der Regel handelt es sich um transformerbasierte Modelle mit vielen Millionen bis Billionen Parametern. Das

Anwendungsfelder umfassen Textgenerierung, Sprach- und Übersetzungsdienste, Beantwortung von Fragen, Textzusammenfassung, Codegenerierung sowie multimodale Anwendungen wie Bildbeschreibung

Herausforderungen umfassen Bias und Diskriminierung, Sicherheitsrisiken, Fehlinformation, Urheberrechts- und Datenschutzfragen, Energieverbrauch und Infrastrukturkosten. Transparenz, Nachvollziehbarkeit,

Auf dem Weg nach vorne wird an effizienteren Trainingsverfahren, besseren Alignment-Methoden und robusten Bewertungsverfahren gearbeitet, um

Vortraining
erfolgt
meist
selbstüberwacht
auf
riesigen
Textkorpora
und,
bei
multimodalen
Ausprägungen,
auch
auf
Bild-
oder
Audiodaten.
Nach
dem
Vortraining
werden
Grundmodelle
typischerweise
durch
Fine-Tuning,
Instruction-Tuning
oder
Alignment-Methoden
auf
Sicherheit
und
Zuverlässigkeit
ausgerichtet.
Ihre
Stärke
liegt
in
der
generalisierten
Repräsentationsbildung,
wodurch
ähnliche
Aufgaben
mit
geringer
zusätzlicher
Anpassung
gelöst
werden
können.
oder
visuelles
Question
Answering.
In
Forschung,
Industrie
und
Verwaltung
dienen
Grundmodelle
als
Basis
für
spezialisierte
Anwendungen,
oft
in
Cloud-Umgebungen
bereitgestellt.
Prüf-
und
Abmilderungsmaßnahmen
sowie
Governance-
und
Regulierungsrahmen
sind
Gegenstand
aktueller
Debatten.
Die
Entwicklung
erfolgt
teils
offen,
teils
unter
proprietären
Modellen,
mit
Auswirkungen
auf
Zugang,
Fairness
und
Wettbewerb.
Leistungsfähigkeit
zu
erhöhen
und
Risiken
zu
mindern.