Dit opiniestuk verscheen eerder in De Gids op Maatschappelijk Gebied (februari 2026) en werd met toestemming overgenomen op de website van het Kenniscentrum Data & Maatschappij.
Het probleem met AI-hallucinaties is niet de technologie, maar het feit dat we geen tijd nemen om ze na te kijken. Petra de Sutter's openingsspeech en Rik Torfs’ boek zijn twee voorbeelden die dit illustreren. De vraag die ik wil stellen is: hoe zorgen we ervoor dat we minder gedachteloos omgaan met hallucinaties? Niet door te shamen of kaderwerken te maken, maar door AI-gebruik transparanter te maken.
Generatieve AI (GenAI) zoals ChatGPT verzint soms dingen. Bronnen die niet bestaan, citaten die nooit uitgesproken zijn, feiten die overtuigend klinken maar nergens op slaan. In de AI-wereld wordt dit ‘hallucineren’ genoemd. UGent-rector Petra De Sutter en kerkjurist Rik Torfs trapten recent in die val. Beiden gebruikten AI bij het schrijven, en beiden checkten blijkbaar niet alles. We zien met deze voorbeelden enkel de top van de ijsberg. Het probleem hier is niet de technologie. AI-systemen hallucineren nu eenmaal, dat is een bekend en voorlopig onoplosbaar gegeven.
AI-systemen hallucineren nu eenmaal, dat is een bekend en voorlopig onoplosbaar gegeven. Het probleem is dat we geen tijd nemen om na te kijken wat die systemen produceren.
Wat we zagen bij De Sutter en Torfs zijn voorbeelden van een nieuwe trend: we nemen vaak zonder het te weten generatieve-AI-hallucinaties over. Waarom? Journalisten hebben te weinig tijd om alles na te kijken en minder publieke hallucinaties passeren onder de radar.
GenAI genereert wat we vragen en kan daarbij nieuwe werken of citaten uitvinden die niet echt zijn. Deze AI-modellen zijn getraind om plausibele antwoorden te genereren, maar hebben daarbij geen mogelijkheid om waarheid of echtheid na te gaan op een volkomen betrouwbare manier. Hoe los je dit op? Door het kritisch na te kijken. Dat klinkt eenvoudig, en dat is het ook – als je de tijd neemt.
Dat is het probleem: mensen die niet kritisch nakijken. Bij Torfs lezen we dat er tijdsgebrek was. Ik denk dat dit voor veel mensen geldt. We doen in de huidige beleidscontext allemaal besparingen en horen voor minder tijd hetzelfde werk te leveren. En toch kan dit niet goedpraten dat we gedachteloos fouten overnemen, niet in een academische of een andere context. GenAI is goed om plausibele dingen te genereren die we graag horen, maar wantrouwen of kritisch zijn is een voorwaarde voor verantwoord gebruik.
Wantrouwen of kritisch zijn is een voorwaarde voor verantwoord gebruik.