brAInfood

brAInfood: Hoe maak je de beslissingen van AI verklaarbaar?

Datum van publicatie: december 2020 /

WAAR GAAT DIT OVER?

Hoe kan je weten of de beslissing die een AI-systeem voor jou maakt wel correct is, eerlijk is en dat er geen fout in het systeem zit? Dit wordt verder onderzocht bij ‘Explainable AI’.

In deze brAInfood gaan we dieper in op ‘verklaarbaarheid’ (explainability) van AI-systemen. Wat betekent verklaarbaarheid? Hoe kunnen AI-systemen verklaarbaar worden gemaakt? Welke verplichtingen heb je als AI-ontwikkelaar naar je gebruikers toe wanneer zij inzage vragen in de verklaarbaarheid van je AI-systeem? Waar wordt al sterk ingezet op verklaarbare AI-systemen?

WAAROM MOET IK DIT LEZEN?

Ben je op zoek naar meer informatie over ‘verklaarbaarheid’ van AI-systemen dan is deze brAInfood iets voor jou. We hopen je meer inzicht te kunnen geven in het belang en het nut van verklaarbaarheid bij AI-systemen, waarom dit een meerwaarde is voor jouw AI-systeem en welke rechten gebruikers hebben met betrekking tot verklaarbaarheid. Aan de hand van enkele toepassingsvoorbeelden schetsen we het belang en de nood aan 'explainable AI'.

WAT KOM IK TE WETEN ALS IK DIT LEES?

Deze brAInfood van het Kenniscentrum Data & Maatschappij omvat:

  • Een korte uitleg over verklaarbaarheid: wat betekent dit?
  • Meer informatie over white box, black box en grey box: hoe kan verklaarbaarheid worden toegepast?
  • Een beknopt overzicht van hoe je als gebruiker inzicht kan verkrijgen in de genomen belissingen.
  • 4 voorbeelden van domeinen waarin 'explainable AI' erg belangrijk is, ter illustratie.

DOWNLOADS

Met brAInfood wil het Kenniscentrum Data & Maatschappij op een toegankelijke manier hapklare informatie over artificiële intelligentie meegeven. brAInfood is beschikbaar onder een CC BY 4.0 licentie en mag dus gedeeld en bewerkt worden zonder onze toestemming te vragen, zolang je ons als auteur vermeldt.

ZIE OOK: