BiasNetzwerke
BiasNetzwerke sind Netzwerke in der Informatik, die sich mit Voreingenommenheiten in Daten, Modellen oder Vorhersagen befassen. Der Begriff wird vor allem in der Debiasing- und Fairness-Forschung verwendet und kann verschiedene Zielsetzungen umfassen: Bias erfassen, modellieren, visualisieren oder reduzieren. Typisch werden BiasNetzwerke entweder als eigenständige Modelle eingesetzt oder als Bausteine in größeren KI-Systemen implementiert, um Bias-Faktoren als latente Variablen zu behandeln oder Bias aus Repräsentationen zu entfernen. Typische Ansätze umfassen encoder-decoder-Strukturen, adversariales Training, Variational Inference oder Multi-Task-Learning, wobei das Ziel eine sauberere, bias-reduzierte Repräsentation ist.
Anwendungsfelder umfassen die Transparenz von KI-Entscheidungen, Fairness-Optimierung in Bereichen wie Personalwesen oder Kreditvergabe sowie die Analyse
Der Stand der Forschung variiert; BiasNetzwerke sind kein standardisiertes Konstrukt, sondern ein Sammelbegriff für Ansätze, die