Grundmodelle
Grundmodelle, auch Foundation Models genannt, bezeichnen eine Klasse von großen, generalistischen KI-Modellen, die auf umfangreichen, heterogenen Datensätzen vortrainiert werden, um Fundamentalfähigkeiten bereitzustellen, die sich auf eine breite Palette von Aufgaben übertragen lassen. Sie ermöglichen Zero-shot- oder Few-shot-Lernen und dienen als Bausteine für spezialisierte Systeme durch Feinabstimmung, Adaptertechniken oder Prompting.
In der Regel handelt es sich um transformerbasierte Modelle mit vielen Millionen bis Billionen Parametern. Das
Anwendungsfelder umfassen Textgenerierung, Sprach- und Übersetzungsdienste, Beantwortung von Fragen, Textzusammenfassung, Codegenerierung sowie multimodale Anwendungen wie Bildbeschreibung
Herausforderungen umfassen Bias und Diskriminierung, Sicherheitsrisiken, Fehlinformation, Urheberrechts- und Datenschutzfragen, Energieverbrauch und Infrastrukturkosten. Transparenz, Nachvollziehbarkeit,
Auf dem Weg nach vorne wird an effizienteren Trainingsverfahren, besseren Alignment-Methoden und robusten Bewertungsverfahren gearbeitet, um