Home

forklarbarhed

Forklarbarhed beskriver, i hvilken grad en maskinlæringsmodel eller et algoritmisk systems beslutninger kan forstås og begrundes af mennesker. Den omfatter både global forklarbarhed, der beskriver generelle mønstre i modellen, og lokal forklarbarhed, der forklarer enkeltforudsigelser. Begreberne forklarbarhed og interpretabilitet bruges ofte i flæng, men fælles mål er at give handlingsbare og troværdige forklaringer til beslutningstagere og berørte parter.

Tilgange kan være ante-hoc (intrinsisk forklarbare modeller som beslutningstræer eller lineære modeller) eller post-hoc (forklaringer genereret

Anvendelse og evaluering: Forklarbarhed er særligt vigtig i sundhed, finans og retlige beslutninger, hvor beslutninger have

Udfordringer og regulering: Moderne modeller kan være komplekse og vanskelige at forklare fuldt ud uden at

efter
træning
for
mere
komplekse
modeller).
Model-agnostiske
metoder
virker
uafhængigt
af
den
anvendte
model,
mens
model-specifikke
metoder
udnytter
særlige
modellers
struktur.
Eksempler
inkluderer
LIME
og
SHAP
til
lokale
forklaringer,
samt
partielle
afhængighedsplotter
(PDP)
og
surrogate-modeller
til
globale
forklaringer.
Desuden
anvendes
counterfactual
forklaringer
og
saliency-maps
i
billed-
og
tekstbaserede
sammenhænge
for
at
illustrere
årsager
til
en
given
beslutning.
betydelige
konsekvenser.
Kvaliteten
af
forklaringer
måles
ofte
ud
fra
forståelighed,
troværdighed
og
konsekvens
(i
hvor
høj
grad
forklaringen
afspejler
modellens
faktiske
adfærd)
samt
stabilitet
over
tid
og
ved
ændringer
i
data.
Derudover
vurderes
nytte,
risiko
for
misbrug
og
beskyttelse
af
fortrolige
oplysninger.
miste
præcision.
Der
er
trade-offs
mellem
præcision
og
forklarbarhed,
og
der
kan
være
risiko
for
overforenkling
eller
fejlinformation.
Regulatoriske
rammer,
som
EU’s
GDPR,
betoner
behovet
for
meningsfuld
information
om
logikken
i
automatiserede
beslutninger
i
visse
sammenhænge.
Effektiv
praksis
kræver
governance,
menneskelig
inddragelse
og
løbende
evaluering
af
forklarbarheden
i
praksis.