Maak werk van AI-geletterdheid

Aan de slag
De afbeelding toont een zilveren vleesmolen. Bovenaan de molen gaan diverse cultureel symbolische, historische en leuke iconen de molen in – zoals emoji's, oude beelden, een computer, kranten en een vliegtuig. Aan de andere kant van de vleesmolen komt een zee van blauwe en grijze iconen tevoorschijn die chatbotreacties voorstellen, zoals 'Laat me weten of dit aansluit bij je visie' in een grijs chatbotberichtsymbool.

The image features a silver meat grinder. Going into the grinder at the top are various culturally symbolic, historical, and fun icons – such as emojis, old statutes, a computer, newspapers, an aeroplane. At the other end of the meat grinder, coming out is a sea of blue and grey icons representing chat bot responses like 'Let me know if this aligns with your vision' in a grey chat bot message symbol.
24.02.2026

Opinie: Het denken mag zich nooit onderwerpen, aan hallucinaties noch tijdsgebrek

Dit opiniestuk verscheen eerder in De Gids op Maatschappelijk Gebied (februari 2026) en werd met toestemming overgenomen op de website van het Kenniscentrum Data & Maatschappij. 

Het probleem met AI-hallucinaties is niet de technologie, maar het feit dat we geen tijd nemen om ze na te kijken. Petra de Sutter's openingsspeech en Rik Torfs’ boek zijn twee voorbeelden die dit illustreren. De vraag die ik wil stellen is: hoe zorgen we ervoor dat we minder gedachteloos omgaan met hallucinaties? Niet door te shamen of kaderwerken te maken, maar door AI-gebruik transparanter te maken.

Generatieve AI (GenAI) zoals ChatGPT verzint soms dingen. Bronnen die niet bestaan, citaten die nooit uitgesproken zijn, feiten die overtuigend klinken maar nergens op slaan. In de AI-wereld wordt dit ‘hallucineren’ genoemd. UGent-rector Petra De Sutter en kerkjurist Rik Torfs trapten recent in die val. Beiden gebruikten AI bij het schrijven, en beiden checkten blijkbaar niet alles. We zien met deze voorbeelden enkel de top van de ijsberg. Het probleem hier is niet de technologie. AI-systemen hallucineren nu eenmaal, dat is een bekend en voorlopig onoplosbaar gegeven. 

AI-systemen hallucineren nu eenmaal, dat is een bekend en voorlopig onoplosbaar gegeven. Het probleem is dat we geen tijd nemen om na te kijken wat die systemen produceren. 

Wat we zagen bij De Sutter en Torfs zijn voorbeelden van een nieuwe trend: we nemen vaak zonder het te weten generatieve-AI-hallucinaties over. Waarom? Journalisten hebben te weinig tijd om alles na te kijken en minder publieke hallucinaties passeren onder de radar.

GenAI genereert wat we vragen en kan daarbij nieuwe werken of citaten uitvinden die niet echt zijn. Deze AI-modellen zijn getraind om plausibele antwoorden te genereren, maar hebben daarbij geen mogelijkheid om waarheid of echtheid na te gaan op een volkomen betrouwbare manier. Hoe los je dit op? Door het kritisch na te kijken. Dat klinkt eenvoudig, en dat is het ook – als je de tijd neemt. 

Dat is het probleem: mensen die niet kritisch nakijken. Bij Torfs lezen we dat er tijdsgebrek was. Ik denk dat dit voor veel mensen geldt. We doen in de huidige beleidscontext allemaal besparingen en horen voor minder tijd hetzelfde werk te leveren. En toch kan dit niet goedpraten dat we gedachteloos fouten overnemen, niet in een academische of een andere context. GenAI is goed om plausibele dingen te genereren die we graag horen, maar wantrouwen of kritisch zijn is een voorwaarde voor verantwoord gebruik.

Wantrouwen of kritisch zijn is een voorwaarde voor verantwoord gebruik.

Verantwoordelijkheid nemen

En dan is er nog het laatste probleem. Als je fouten maakt, neem er dan je verantwoordelijkheid voor. Petra de Sutter deed dit volledig. Rik Torfs laat in het midden of hij zelf hallucineert, iemand anders of AI. GenAI kan geen verantwoordelijkheid nemen voor hallucinaties, maar wij als mens wel. Kritisch nadenken blijft voorlopig iets waar wij uniek in zijn. Daarom is het onze morele plicht, of je academicus bent of niet. Publieke figuren zoals (ex-)rectoren zouden voorop moeten lopen in die zorgvuldigheid.

Rik Torfs laat in het midden of hij zelf hallucineert, iemand anders of AI. 

Hoe lossen we dit op? 

Gaan we AI kritisch en transparant gebruiken? Willen we dat afspreken? Richtlijnen zijn het equivalent van deze uitspraak: een goed begin, maar half werk. Geef mensen de middelen om GenAI- gebruik transparant en kritisch te benaderen. Drie minimale stappen volstaan als begin: 

  1. Geef duidelijk aan waar en hoe je GenAI hebt ingezet;
  2. Zeg expliciet welke gegenereerde inhoud wél en niet is nagekeken;
  3. Bewaar die informatie bij de tekst zelf, zodat de volgende in de keten kan zien wat er gebeurd is.

     

AI-hallucinaties zijn een uitdaging, tijdsgebrek een flauw excuus. Als we generatieve AI willen blijven gebruiken, moeten we van kritisch-zijn een prioriteit maken. In het Engels bestaat er al een ‘tool’ waarmee je kunt aangeven in welke mate AI gebruikt werd, in het Nederlands moeten we daar dringend werk van maken.

Over

Dit artikel werd geschreven voor De Gids op Maatschappelijk Gebied en werd met toestemming overgenomen op de website van het Kenniscentrum Data & Maatschappij. De Gids is het opiniërende onderzoekstijdschrift van beweging.net, het ACV en CM Gezondheidsfonds.

Download

Download het artikel zoals verschenen in De Gids op Maatschappelijk Gebied (februari 2026)

Artikel Rob Heyman De Gids FEB 2026 (pdf, 76KB)

Download
AI-attributie

Dit werk is voornamelijk door mensen gemaakt. AI werd gebruikt voor stilistische bewerkingen, zoals wijzigingen in structuur, formulering en duidelijkheid. AI werd gebruikt voor inhoudelijke bewerkingen, zoals wijzigingen in reikwijdte, informatie en ideeën. AI werd gevraagd om bij te dragen, of AI-ondersteuning werd ingeschakeld. De door AI gegenereerde inhoud werd beoordeeld en goedgekeurd. De volgende modellen of applicaties werden gebruikt: Perplexity Pro. 

 

Auteursrechten afbeelding

Afbeelding door Janet Turra & Cambridge Diversity Fund via BetterImagesofAI.org

Auteur

Dr Rob Heyman

Rob Heyman

Coördinator Kenniscentrum Data & Maatschappij