Nieuwe tool: AI Blind Spots in de zorg 

Ontdek
Lone Thomasky Bits Bäume Distorted Fish School 1280x1806
06.10.2025

Is naleving voldoende? Hoe kun je ethiek heroverwegen in het tijdperk van de AI Act?

Hoe hoog staat ethische AI op de agenda van jouw organisatie? Met de komst van de AI Act lijkt de discussie over verantwoorde AI te zijn verschoven van ethiek naar naleving. Wat betekent dit voor de impact van AI en hoe kunnen ethiek en wetgeving elkaar versterken en ondersteunen? Op 23 september kwam het lerend netwerk ‘AI en ethiek in de praktijk’ bijeen om over deze vragen na te denken. De sessie begon met twee presentaties, die werden gevolgd door een discussie. Dit verslag geeft een overzicht van de belangrijkste inzichten.

Ethiek en recht als complementaire krachten

In de eerste presentatie onderzocht Julia Straatman (onderzoeker digitale ethiek aan de Data School, Universiteit Utrecht) de relatie tussen ethiek en recht, de uitdagingen bij de toepassing ervan op snel veranderende technologieën zoals AI, en hoe organisaties naast naleving van de wet ruimte kunnen creëren voor ethische reflectie.

Straatman benadrukte dat ethiek en recht nauw met elkaar verbonden zijn. Veel wetten zijn ontwikkeld vanuit ethisch standpunt: regels tegen diefstal of discriminatie begonnen als morele oordelen voordat ze werden omgezet in afdwingbare normen. Het recht kristalliseert ethiek, maar past zich minder snel aan, een probleem dat wordt geïllustreerd door AI: toen de AI-wet voor het eerst werd opgesteld, had deze geen betrekking op algemene systemen zoals ChatGPT, die pas later werden toegevoegd. Dit laat zien waarom, wanneer de wet geen gelijke tred kan houden, ethiek essentieel is.

In de praktijk heeft Straatman een verschuiving waargenomen bij overheidsorganisaties: in het verleden stonden vragen over ethische reflectie centraal (wat is het juiste om te doen?), terwijl het nu steeds meer gaat om naleving (hoe voldoen we aan de eisen van de AI Act?). Naleving is belangrijk, maar door debatten te reduceren tot afvinkoefeningen bestaat het risico dat bredere ethische kwesties onbesproken blijven. Wettelijke kaders kunnen niet alles omvatten, dus organisaties moeten bewust ruimte creëren voor ethische reflectie.

Straatman sloot haar presentatie af met de volgende praktische aanbevelingen:

  • Houd altijd het beoogde doel van technologie in gedachten. Technologie is een hulpmiddel, geen doel op zich. Gesprekken over het doel helpen ethische reflectie te verankeren.
  • Formaliseer ethische afwegingen met behulp van gestructureerde tools (zoals FRAIA). Deze tools creëren ruimte voor ethische reflectie en bieden tegelijkertijd documentatie die compliance-inspanningen ondersteunt. Dit zorgt ervoor dat ethiek en naleving elkaar versterken in plaats van verzwakken.

Ethiek en recht zijn geen concurrerende domeinen, maar complementaire krachten. Aangezien technologie de wetgeving voorbijstreeft, biedt ethiek de nodige ruimte om te beraadslagen over wat maatschappelijk wenselijk is, terwijl het recht deze beraadslagingen omzet in afdwingbare regels. De belangrijkste boodschap: laat naleving ethiek niet overschaduwen: houd beide in het spel.

Reflecties over ethiek en regelgeving

De tweede spreker was Shazade Jameson, die momenteel werkt als projectmedewerker bij de UNESCO Ethics of AI Unit en leiding geeft aan het project ‘AI Ready Flemish Public Administration’. Haar presentatie was een persoonlijke reflectie over het onderwerp en dus geen weerspiegeling van het standpunt van UNESCO.

Jameson begon met het benadrukken van drie belangrijke uitdagingen waarmee de publieke sector vaak wordt geconfronteerd als het gaat om de implementatie van AI: technische infrastructuur en capaciteit, wettelijke naleving en ethische vragen over het gebruik van AI in het openbaar bestuur.

Jameson benadrukte dat ethiek vaak wordt gezien als een ‘nice to have’ en niet als een essentiële vereiste. Deze tendens is alleen maar toegenomen met de opkomst van wetgeving, aangezien regelgevingskaders ethische reflectie vaak naar de achtergrond verdringen. Zo beschrijft de AI Act welke AI-praktijken verboden zijn en identificeert deze wet risicovolle systemen, maar deze juridische benadering garandeert niet automatisch ethische praktijken. Jameson sprak ook over de noodzaak om een basisniveau voor AI-geletterdheid te overwegen en hoe we dat definiëren, daarbij verwijzend naar het aanstaande ‘Ethical AI Competency Framework’ van UNESCO om actoren in de publieke sector te helpen de nodige kennis te ontwikkelen om op verantwoorde wijze met AI om te gaan.

Jameson merkte ook op dat de onzekerheid rond AI toeneemt in alle sectoren, wat soms tot ongemak leidt voor organisaties. Als reactie hierop moedigde Jameson aan om contact te leggen met collega's om gezamenlijk praktische implementatie te onderzoeken en na te denken over een meer ethische inzet van AI. Het is essentieel om de tijd te nemen om bredere maatschappelijke vragen te stellen, zoals wat voor toekomst we willen met AI. Jameson sloot af met een verwijzing naar twee bronnen van UNESCO, de ‘Ethical Impact Assessment’ en de ‘Readiness Assessment Methodology’, die deel uitmaken van de ‘Recommendation on the Ethics of Artificial Intelligence’ en online beschikbaar zijn, met updates gepland voor later dit jaar.

Discussie

De vraag- en antwoordsessie bracht een aantal praktische en ethische uitdagingen van AI aan het licht. Wat betreft het meten van de impact van ethiek benadrukten de sprekers dat cijfers niet erg veelzeggend zijn. Wat telt, is hoe systemen mensen beïnvloeden, van gebruikers tot burgers, en hoe ethische kwesties van invloed zijn op beleid, strategie en besluitvorming. Ook aanbestedingen waren een punt van zorg: het aanschaffen van een systeem wordt door werknemers en gebruikers vaak gezien als een bewijs van kwaliteit, maar dat is niet altijd het geval. Suggesties waren bijvoorbeeld meer onafhankelijke tests van claims, strengere contractuele praktijken, duidelijkere richtlijnen en betrokkenheid van leveranciers bij ethische reflectie sessies.

Er werd ook bezorgdheid geuit over de uitzonderingen in de AI Act, met name de bepalingen die biometrische categorisering voor wetshandhaving toestaan. Hoewel dergelijke uitzonderingen in het algemeen verboden zijn, bestaat het risico dat ze worden misbruikt, vooral in meer autoritaire contexten. Dit wijst op een dieper liggend probleem: door AI als een marktproduct te reguleren, worden bredere kwesties van sociale rechtvaardigheid over het hoofd gezien. Uit de discussie bleek duidelijk dat organisaties niet alleen moeten kijken naar wat de wet toestaat, maar ook naar de bredere ethische gevolgen van de manier waarop AI wordt ingezet.

Lerend netwerk ‘AI & ethiek in de praktijk’

Vier maal per jaar wisselt het lerend netwerk 'AI en ethiek in de praktijk' ervaringen uit over een actueel onderwerp. Op de kalenderpagina vind je meer informatie over de volgende bijeenkomsten. 

Over

Afbeelding door Lone Thomasky & Bits&Bäume uit de betterimagesofai library. Licentie: CC BY 4.0

AI attributie: Dit werk is voornamelijk door mensen gemaakt. AI werd gebruikt om stilistische bewerkingen aan te brengen, zoals wijzigingen in de structuur, de bewoordingen en de duidelijkheid. AI werd gevraagd om een bijdrage te leveren, of AI-assistentie werd ingeschakeld. Door AI gegenereerde inhoud werd beoordeeld en goedgekeurd door de auteurs. De volgende modellen of toepassingen werden gebruikt: ChatGPT-5. AIA Ph Se Hin R ChatGPT-5 v1.0

Auteurs

Wout Vermeir
Shannen Verlee
Sultan Erdogan
Jonne van Belle