Lisäselittävyys
Lisäselittävyys tarkoittaa kykyä tarjota päätöksen lisäksi ymmärrettävä selitys siitä, mitkä tekijät ovat vaikuttaneet siihen ja kuinka luotettavia tulokset ovat. Se on osa laajempaa selitettävyyden ja läpinäkyvyyden keskustelua tekoälyjärjestelmissä ja koneoppimisessa, ja sen tavoitteena on parantaa luottamusta sekä mahdollistaa virheiden tunnistaminen ja vastuullinen käyttö.
Käytännössä lisäselittävyys täydentää järjestelmän päätöksiä antamalla tietoa tekijöistä, joiden harkinta johti lopulliseen tulokseen, sekä kuvaamalla epävarmuutta
Tavallisia lähestymistapoja ovat esimerkiksi ominaisuusmerkityksen ja paikallisten selitysten tarjoaminen sekä sääntöihin perustuvan tai tulkinnan kannalta käyttäjäystävällisen
Haasteet liittyvät tasapainoon suorituskyvyn ja selitettävyyden välillä, selitysten väärinymmärrysten riski sekä tietosuoja- ja väärinkäytösten mahdollisuudet. Sääntely-