Grundlagenmodelle
Grundlagenmodelle bezeichnen große, vortrainierte KI-Modelle, die auf breiten Datensätzen trainiert werden und sich für zahlreiche Aufgaben mit wenig oder ohne task-spezifische Anpassung verwenden lassen. Typischerweise basieren sie auf Transformer-Architekturen und nutzen selbstüberwachte Lernziele. Durch Skalierung von Daten, Parametern und Rechenleistung entwickeln sie zunehmend allgemeine Fähigkeiten, die über einzelne Aufgaben hinausgehen. Der Begriff ist besonders in der Diskussion um Multi-Modalität und Flexibilität wichtig.
Beispiele umfassen textbasierte Modelle wie GPT, BERT oder T5 sowie multimodale Systeme wie CLIP, DALL-E oder
Grundlagen: Training erfolgt auf großen, oft lizenzierten oder öffentlich verfügbaren Datensätzen, über längere Zeiträume und mit
Dennoch gibt es Einschränkungen: Anfälligkeit für Bias und Desinformation, Halluzinationen, Sicherheits- und Datenschutzprobleme, Datenlecks und Umweltkosten.
Die Bewertung von Grundlagenmodellen erfolgt über spezialisierte Benchmarks sowie reale Einsatzszenarien. Neben Leistungskennzahlen gewinnen Robustheit, Fairness,