Home

Interpreteerbaar

Interpreteerbaar of interpreteerbaarheidskwaliteit verwijst naar de eigenschap van een model of besluitvormingssysteem dat voor mensen begrijpelijk en verantwoord kan worden verklaard. In de context van kunstmatige intelligentie gaat het vaak om inzicht in welke factoren aan een bepaalde uitkomst hebben bijgedragen en waarom die beslissing is genomen.

Er wordt vaak een onderscheid gemaakt tussen intrinsieke interpretabiliteit en post-hoc verklaringen. Intrinsieke interpretabiliteit verwijst naar

Voorbeelden van interpretabele modellen zijn lineaire regressie, logistieke regressie, beslisbomen en regelsystemen die lijnen of dwarsverbanden

Interpretatie heeft vooral betekenis in hoge-impactvelden zoals financiën, gezondheidszorg, recht en de publieke sector, waar begrip

In beleid en governance wordt gestreefd naar transparantie door middel van documentatie, modelkaarten en datasheets voor

modellen
waarvan
de
werking
direct
te
doorgronden
is,
zoals
lineaire
modellen,
beslisbomen
of
regelgebaseerde
systemen.
Post-hoc
verklaringen
zijn
technieken
die
achteraf
uitleg
geven
over
een
model
dat
mogelijk
complexer
of
minder
transparant
is,
bijvoorbeeld
bij
diepe
neurale
netwerken.
tussen
kenmerken
en
uitkomsten
duidelijk
maken.
Voor
complexere
modellen
bestaan
post-hoc
benaderingen
zoals
feature
importance,
SHAP-
en
LIME-analyses,
partiële
afhankelijkheidsdiagrammen
en
surrogate
modellen
die
een
eenvoudiger
model
opleveren
als
representatie
van
het
gedrag
van
het
echte
model.
van
beslissingen
cruciaal
is
voor
verantwoording,
toezicht
en
ethische
overwegingen.
Uitdagingen
zijn
onder
meer
de
mogelijke
trade-off
tussen
interpretabiliteit
en
nauwkeurigheid,
het
evalueren
van
interpretaties
en
het
voorkomen
van
misleidende
verklaringen
door
complexiteit
of
bias
in
data.
datasets,
zodat
stakeholders
inzicht
krijgen
in
werkwijzen,
beperkingen
en
risico’s
van
AI-systemen.