Home

geïnterpreteerbaar

Geïnterpreteerbaar is een eigenschap van een systeem of model waardoor de oorzaak en werking van beslissingen begrijpelijk kunnen worden gemaakt voor mensen. In het domein van kunstmatige intelligentie verwijst interpretability vaak naar de mogelijkheid om te zien welke kenmerken en regels bijdragen aan een uitkomst en om het beslissingsproces te reconstrueren. Het begrip is nauw verwant aan verklaarbaarheid, maar in de literatuur worden de termen soms verschillend gebruikt: interpretability bekijkt doorgaans hoe het model intern werkt, terwijl explainability zich richt op heldere toelichtingen voor een specifieke beslissing.

Er bestaan twee hoofdbenaderingen: intrinsiek interpreteerbare modellen en post-hoc interpretaties. Intrinsiek interpreteerbare modellen zijn van nature

Toepassingen van geinterpreteerbare modellen bevinden zich in gebieden waar begrip en verantwoording belangrijk zijn, zoals financiën,

eenvoudig,
bijvoorbeeld
lineaire
modellen,
beslissingsbomen
of
regelgebaseerde
systemen.
Complexe
modellen
zoals
diepe
neurale
netwerken
kunnen
via
post-hoc
technieken
toelichtingen
leveren,
zoals
het
geven
van
feature-importance-scores,
SHAP-
of
LIME-varianten,
of
visuele
attributies
bij
beelddata
(saliency
maps,
Grad-CAM).
gezondheidszorg
en
rechtspraak.
Het
biedt
mogelijkheden
voor
foutopsporing,
bias-detectie
en
verantwoorde
besluitvorming,
maar
interpretatie
is
contextafhankelijk
en
kan
leiden
tot
misinterpretatie
als
vereenvoudigingen
te
veel
worden
vereenvoudigd.
Er
is
een
voortdurende
afweging
tussen
modelprestaties
en
interpretatie,
en
onderzoekers
streven
naar
methoden
die
zowel
nauwkeurig
als
begrijpelijk
zijn.