Home

forklarbarhet

Forklarbarhet, eller explainability, avser hur väl man kan förstå hur ett system fungerar, varför det gör vissa bedömningar och hur osäkerheter uttrycks. Inom artificiell intelligens och maskininlärning handlar forklarbarhet om att göra beslut och prognoser intelligenta och begripliga för människor, inte bara korrekta enligt matematiken.

Forklarbarhet har flera dimensioner. Transparens syftar till hur mycket av modellens struktur och data som kan

Betydelsen av forklarbarhet är särskilt viktig i kritiska områden som vård, ekonomi och offentlig sektor, där

Regelverk och standarder är under utveckling i flera regioner; i EU diskuteras krav kopplade till ansvar och

granskas.
Begriplighet
fokuserar
på
att
presentationen
av
orsaker
och
kopplingar
är
meningsfull
för
användaren.
Det
finns
olika
typer
av
förklaringar:
lokala
förklaringar
som
redogör
för
ett
enskilt
beslut,
eller
globala
förklaringar
som
beskriver
modellens
övergripande
beteende.
Metoder
kan
vara
modellinterna
eller
modellagnostiska,
och
innefattar
exempelvis
funktioner
som
betydelsen
av
variabler,
motexempel,
eller
motfaktiska
förklaringar.
beslut
kan
påverka
människors
liv.
Den
används
för
att
öka
tillit,
uppfylla
ansvarstagande
och
underlätta
felsökning
och
reglerande
efterlevnad.
Samtidigt
finns
utmaningar:
horisontella
avvägningar
mellan
precision
och
förståelse,
risk
för
missförstånd
eller
feltolkningar,
samt
integritets-
och
sekretessfrågor.
rättssäkerhet
för
automatiserade
beslut.
Effektiv
forklarbarhet
kräver
ofta
anpassning
till
användare
och
kontext,
samt
kontinuerlig
utvärdering
och
uppdatering
av
förklaringar.