Interpretierbarkeit
Interpretierbarkeit bezeichnet die Fähigkeit, die Funktionsweise und Entscheidungslogik eines Modells nachvollziehbar zu machen. Sie umfasst das Verständnis der Modellstruktur ebenso wie die Verständlichkeit der Vorhersagen. Ziel ist Transparenz, Vertrauensbildung und Verantwortbarkeit in der Nutzung von Algorithmen.
Es gibt zwei grundlegende Ansätze: intrinsische Interpretierbarkeit, bei der sich Modelle durch verständliche Strukturen auszeichnen (zum
Bewertung und Herausforderungen betreffen vor allem den Trade-off zwischen Verständlichkeit und Leistungsfähigkeit. Erklärungen können fehlerhaft oder
Anwendungen finden sich in Bereichen wie Finanzen, Gesundheitswesen, Recht und öffentlicher Verwaltung. Interpretierbarkeit unterstützt Auditierbarkeit, Compliance