paper

News Recommenders and Cooperative Explainability:

Confronting the contextual complexity in AI explanations

M.Z. van Drunen, PhD researcher, Institute for Information Law, University of Amsterdam

J. Ausloos, Postdoctoral researcher, Institute for Information Law, University of Amsterdam

N.M.I.D. Appelman, PhD researcher, Institute for Information Law, University of Amsterdam

N. Helberger, Distinguished University Professor of Law and Digital Technology, University of Amsterdam

Er wordt veel politieke, academische, en technische energie gestoken in het proberen uitleggen van Artificiële Intelligentie (AI). Maar door wie moet AI worden uitgelegd, aan wie, en waarom? AI omvat het samenspel van een grote en veranderende groep partijen die voor verschillende doelen uitleg kunnen ontvangen of geven. Pogingen om AI in isolatie of in abstracto uit te leggen negeren deze complexiteit. In deze visiepaper wordt het concept coöperative explainability geïntroduceerd.

De paper illustreert hoe coöperative explainability kan worden toegepast door in te zoomen op AI-systemen die nieuws aanbevelen. In deze context moet niet alleen worden gekeken naar de rol van bekende partijen zoals platforms en individuen, maar ook adverteerders, de media, softwareleveranciers, en een heleboel andere maatschappelijke actoren. In de mediacontext vereisen al deze partijen specifieke uitleg waardoor algemene waarden zoals verantwoording, zelfbeschikking, en vertrouwen gewaarborgd kunnen worden.

Door het samenspel van partijen en waarden achter AI te erkennen wordt een systeem uiteengezet waarin de verschillende vormen van uitleg op elkaar aansluiten. Met zo’n overkoepelende blik kunnen algemene normen voor uitlegbare AI worden geïdentificeerd, en kan worden bepaald wat voor uitleg over AI in de media nodig is voor een gezonde democratische samenleving. De belangrijkste bevindingen van de visiepaper kunnen als volgt worden samengevat:

  • Hoe AI uitgelegd moet worden, door wie, en aan wie, kan niet op zichzelf, of op een abstract niveau bepaald worden.
  • De uitleg van hoe een AI -systeem werkt is complex en afhankelijk van de specifieke context. De rollen van alle verschillende betrokken partijen moeten hierbij in samenhang worden bezien. Dit idee wordt in de visiepaper cooperative explainability genoemd.
  • Ter illustratie wordt het ecosysteem rond AI in nieuws-aanbevelingen (news recommenders) uitgepakt. In deze context laat cooperative explainability zien dat er niet één actor specifiek verantwoordelijk is voor het uitleggen van het AI systeem. Alle actoren hebben een bepaalde verantwoordelijkheid en zijn afhankelijk van elkaar om hun verantwoordelijkheid in te vullen. Kort samenvat ziet dit er als volgt uit:
    • Sociale media platforms moeten aan individuen uitleggen waarom bepaald nieuws aanbevolen wordt;
    • Individuen hebben daarnaast ook het recht om te begrijpen hoe hun eigen acties (liken, sharen, ect.) invloed hebben op de aanbevelingen;
    • Nieuwsmedia moeten aangeven door wie het AI -aanbevelingssysteem dat ze gebruiken ontwikkeld is en hoe deze ingezet wordt;
    • Ontwikkelaars van AI -systemen moeten aan de nieuwsmedia uitleggen hoe hun systemen werken zodat deze het aan individuen kunnen uitleggen;
    • Nieuwsmedia moeten aan de ontwikkelaars uitleggen wat het doel van het systeem is en hoe commerciële belangen van adverteerders daar een rol in spelen.

Deze paper geeft de visie van de auteurs weer en is niet noodzakelijk een weergave van de visie van het Kenniscentrum Data & Maatschappij en CiTiP. Met deze paper willen we bijdragen aan het bestaande debat rond AI. Disclaimer.