Nieuwe opleiding: Verantwoord innoveren met AI 

Schrijf je in
Een persoon waakt over een gezin dat AI consumeert. Het tafereel in de woonkamer wordt omlijst door beelden van elektrisch gereedschap.

A person watches over a family consuming AI. The living room vignette is framed by power tool imagery.
19.08.2025

Zomerblog: De Zeven Promptgeboden voor Verantwoorde inzet van AI-chatbots

Tijdens de zomermaanden biedt het Kenniscentrum Data & Maatschappij een platform aan partnerorganisaties en experts. In deze gastbijdrage deelt Wim Casteels zijn zeven praktische vuistregels die je kunnen helpen bij het effectief en verantwoord inzetten van AI-chatbots.

De zeven promptgeboden

Maak jij ook steeds vaker gebruik van AI-chatbots zoals ChatGPT, maar krijg je nog niet het resultaat waar je op hoopt? Of vermijd je ze net omdat je geen vertrouwen hebt in wat deze chatbots opleveren? Met de zeven promptgeboden in dit artikel verhoog je de kans dat je tot een goed resultaat komt.

De lancering van ChatGPT door OpenAI eind 2022 veranderde AI van een relatief onbekend onderzoeksgebied in een onderwerp dat iedereen bezighoudt. Het was de snelst groeiende app ooit: ChatGPT bereikte in slechts 2 maanden 100 miljoen gebruikers, terwijl TikTok hier 9 maanden voor nodig had en Spotify zelfs 11 jaar. Momenteel heeft ChatGPT ongeveer 700 miljoen wekelijks actieve gebruikers. Sindsdien is artificiële intelligentie (AI) niet meer weg te denken uit de media en verschijnen er voortdurend nieuwe AI-modellen en toepassingen. Volgens de jaarlijkse imec.digimeter neemt het AI-gebruik onder Vlamingen toe, waarbij 45% van de Vlamingen in 2024 AI gebruikte. Ook bedrijven zetten steeds vaker AI in voor innovatie en procesautomatisering. De AI-barometer wees uit dat in 2023 al een derde van de Vlaamse bedrijven AI toepaste.

AI is geen magische oplossing, ook al lijkt dat soms wel zo. Om er optimaal gebruik van te maken, moet je je bewust zijn van de beperkingen. AI-geletterdheid omvat zowel het efficiënt gebruiken van deze tools als het begrijpen van hun grenzen. Deze beperkingen zijn niet altijd zichtbaar omdat AI-ontwikkelaars vaak essentiële informatie achterhouden, waardoor het moeilijk is een volledig beeld te krijgen. Het is vergelijkbaar met een masker: achter de gebruiksvriendelijke interfaces van AI-toepassingen schuilt een wereld vol (maatschappelijke) uitdagingen. De zeven ‘promptgeboden’ in deze blogpost bieden praktische vuistregels die je kunnen helpen bij het effectief en verantwoord inzetten van AI-chatbots.

AI is geen mens

Als mensen hebben we een sterke neiging om menselijke eigenschappen toe te kennen aan niet-menselijke entiteiten. Denk aan tekenfilms met pratende dieren of hoe we spreken over ‘Moeder Aarde’. Dit verschijnsel heet antropomorfisme en komt ook veel voor bij AI (zoals blijkt uit de vele mensachtige robots in films). Hierdoor schrijven we vaak onterecht menselijke eigenschappen toe aan AI, zoals het vermogen om te redeneren en bewustzijn te hebben.

Een voorbeeld hiervan is het computerprogramma ELIZA, ontwikkeld in de jaren 60 door professor Joseph Weizenbaum en algemeen beschouwd als de allereerste chatbot. ELIZA simuleerde een psychotherapeut door een simpele techniek toe te passen: het reflecteren van wat de patiënt zei. Voor Weizenbaum was dit slechts een experiment om mens-machine communicatie te bestuderen. Hij was verbijsterd door hoe snel mensen emotionele eigenschappen toeschreven aan de machine

Ondanks dat de chatbot duidelijk geen intelligentie of begrip bezat, raakten mensen emotioneel gehecht aan het programma. Weizenbaums eigen secretaresse zou hem zelfs gevraagd hebben de kamer te verlaten zodat ze privé met ELIZA kon praten. Dit fenomeen, het toekennen van menselijke eigenschappen aan machines, staat sindsdien bekend als het ELIZA effect. Je kunt zelf met ELIZA experimenteren via deze link.

Figuur: Interface van de ELIZA chatbot (bron: Wikipedia)

Dit effect is nog veel sterker bij de nieuwe generatie chatbots die verrassend goed met taal overweg kunnen. De interface van bijvoorbeeld ChatGPT versterkt dit nog door aan te geven dat het model aan het "denken" is terwijl je op een reactie wacht. Hierdoor schrijven we deze AI-modellen onterecht ook andere menselijke eigenschappen toe, zoals redeneren en intelligentie.

In werkelijkheid zijn deze modellen alleen goed in het herkennen van patronen in hun trainingsdata en het genereren van plausibele antwoorden op basis daarvan. ChatGPT kan bijvoorbeeld eenvoudige rekensommen oplossen omdat deze veelvuldig online voorkomen en dus ruimschoots in de trainingsdata aanwezig zijn. Zodra berekeningen complexer worden, gaat het mis en ben je beter af met een rekenmachine. Veel AI-modellen hebben bijvoorbeeld moeite met het oplossen van een relatief eenvoudige vergelijking als 5,9=x+5,11.

Blijf daarom altijd kritisch en zie AI-modellen voor wat ze werkelijk zijn: toepassingen die hebben geleerd statistische patronen te herkennen in een enorme hoeveelheid trainingsdata, maar die geen eigen redeneringen kunnen opzetten, laat staan een echte gedachtengang kunnen ontwikkelen.

2. Denk duurzaam

Een grote verdienste van OpenAI is de gebruiksvriendelijke interface van ChatGPT, waardoor miljoenen mensen snel hun weg vonden naar de applicatie. Deze interface verhult echter wat er achter de schermen gebeurt: gigantische datacenters met duizenden computerservers die continu draaien. Door het enorme energieverbruik hebben verschillende techbedrijven hun klimaatdoelen al moeten bijstellen. Ze zoeken nu naar alternatieve energiebronnen om hun CO2-uitstoot te verminderen.

Figuur: Gebruiksvriendelijke interface van ChatGPT die als een masker verhult wat achter de schermen nodig is om dit te bereiken (bron: ChatGPT).

Veel datacenters verhuizen daarom naar IJsland, waar hernieuwbare energie zoals waterkracht ruim beschikbaar is en het koude klimaat het koelen van servers vereenvoudigt. Dit zet echter de lokale energievoorziening onder druk. Andere populaire alternatieven zijn kernenergie en zelfs de ontwikkeling van datacenters in de ruimte, waar zonne-energie in overvloed aanwezig is.

Voor de koeling is veel water nodig, en vaak liggen gebieden met veel hernieuwbare energie zoals zon en wind in regio's met weinig water. Dit brengt de watervoorraad van lokale gemeenschappen in gevaar. Bij gebrek aan duurzame energie worden bij datacenters soms vervuilende gasturbines geplaatst om in de energiebehoefte te voorzien. Omwonenden betalen hiervoor de prijs met slechtere luchtkwaliteit en gezondheidsrisico's.

Het energieverbruik van AI verschilt per situatie, maar onderzoek wijst uit dat een typische ChatGPT-vraag ongeveer 0,3 Wh verbruikt (vergelijkbaar met een lamp die kort brandt) en dat 50 ChatGPT-vragen ongeveer 2 liter water kosten. Bewustzijn hiervan is belangrijk, maar de verantwoordelijkheid ligt niet primair bij eindgebruikers. Zo zal AI niet duurzamer worden door minder vriendelijk te zijn tegen chatbots. Bovendien is AI nu zo wijdverspreid ingebouwd in applicaties, zoals de ongevraagde AI Overviews van Google, dat gebruikers het nauwelijks kunnen vermijden. Een fundamentele oplossing vereist dat AI-bedrijven transparant communiceren over de ecologische impact van hun producten. Voel je dus niet schuldig telkens je AI gebruikt, maar wees wel kritisch naar de ecologische voetafdruk wanneer iemand een nieuwe AI-tool aanprijst.

3. Pas op met wat je deelt

Wanneer je iets aan ChatGPT vraagt, wordt dit naar de servers van OpenAI gestuurd voor verwerking. OpenAI is weinig transparant over wat er precies met je data gebeurt. AI-modellen hebben enorm veel trainingsdata nodig, en tenzij je dit expliciet uitschakelt in de instellingen, worden jouw gegevens waarschijnlijk gebruikt om hun modellen te verbeteren. In 2023 werd ChatGPT in Italië tijdelijk verboden en eind 2024 kreeg OpenAI er een boete van 15 miljoen euro vanwege ondoorzichtige dataverzameling.

Wees daarom voorzichtig met het delen van gevoelige informatie met chatbots. Samsung verbood zijn werknemers bijvoorbeeld het gebruik van externe AI-tools nadat bij een datalek bij OpenAI vertrouwelijke Samsung-documenten waren gelekt die medewerkers in ChatGPT hadden gekopieerd.

Bovendien is OpenAI nog steeds een startup die jaarlijks miljarden dollars verlies maakt en volgens eigen voorspellingen pas in 2029 winstgevend zal worden. Het bedrijf zoekt daarom actief naar een levensvatbaar businessmodel. Ze zouden in de verleiding kunnen komen om het voorbeeld te volgen van bedrijven als Google en Meta, die hebben bewezen dat er enorme winsten te behalen zijn met het commercialiseren van gebruikersdata.

4. AI is niet neutraal

In essentie bestaan AI-modellen uit talloze kleine wiskundige bewerkingen. Maar hoe kan wiskunde niet neutraal zijn? Dit doet denken aan een vergelijking van taalwetenschapper Noam Chomsky tussen technologie en een hamer: een hamer maakt geen onderscheid tussen het bouwen van een huis of het inslaan van iemands schedel.

Afbeelding met clipart, schets, silhouet, tekening  Door AI gegenereerde inhoud is mogelijk onjuist.
Figuur: AI is niet neutraal (afbeelding gegenereerd met ChatGPT)

AI-modellen staan echter bekend om hun ingebouwde vooroordelen, zoals racisme, seksisme en discriminatie van gemarginaliseerde groepen. Deze modellen nemen vooroordelen over uit hun trainingsdata en kunnen deze zelfs versterken. Een bekend voorbeeld is COMPAS, een systeem dat Amerikaanse rechters gebruikten om te bepalen wie in aanmerking kwam voor borgtocht. Het bleek dat dit systeem systematisch hogere scores toekende aan witte mensen dan aan mensen van kleur met vergelijkbare achtergronden, puur op basis van historische data. In Nederland zagen we een vergelijkbaar probleem bij de toeslagenaffaire, waarbij tienduizenden mensen ten onrechte van fraude werden beschuldigd en het systeem onevenredig veel mensen met een migratieachtergrond viseerde. 

Ook nieuwere AI-toepassingen zoals ChatGPT bevatten ingebakken vooroordelen en stereotypen. Deze taalmodellen worden voornamelijk op Engelstalige data getraind, waardoor ze overwegend de Amerikaanse cultuur uitdragen. In China gebeurt dit minder subtiel: de overheid eist dat AI-taalmodellen de 'socialistische kernwaarden' uitdragen. Hierdoor krijg je bijvoorbeeld nauwelijks informatie over de gebeurtenissen op het Tiananmenplein of over de fysieke gelijkenissen tussen leider Xi Jinping en Winnie de Poeh. Hoewel het probleem van vooroordelen in AI al geruime tijd bekend is en er uitgebreid onderzoek naar gedaan wordt, blijven er hardnekkige voorbeelden van opduiken. Een recent voorbeeld is de chatbot Grok van Elon Musk's x.ai die antisemitische opmerkingen plaatste op X en zichzelf 'MechaHitler' noemde. Wees je hiervan bewust bij het gebruik van AI en ga er niet van uit dat antwoorden moreel neutraal zijn.

5. Laat je niet misleiden

AI-taalmodellen zijn getraind om plausibele antwoorden te genereren, niet om feitelijk correct te zijn. Hierdoor produceren ze vaak overtuigende informatie die geloofwaardig lijkt maar feitelijk onjuist is, een fenomeen bekend als ‘hallucinaties’. Dit heeft al tot problematische situaties geleid, zoals advocaten die AI gebruikten en fictieve precedenten citeerden. De vraag is hoeveel van deze gevallen onopgemerkt zijn gebleven. In de geneeskunde manifesteren deze hallucinaties zich ook, waar ze letterlijk het verschil tussen leven en dood kunnen betekenen. Zo verzon Googles Med-Gemini model, speciaal ontwikkeld voor de medische sector, een volledig nieuw lichaamsdeel. Ook softwareontwikkeling met AI wordt ondermijnd door verzonnen afhankelijkheden die de veiligheid van applicaties in gevaar brengen.

Afbeelding met schets, tekening, tekenfilm, clipart  Door AI gegenereerde inhoud is mogelijk onjuist.
Figuur: Laat je niet misleiden (afbeelding gegenereerd met ChatGPT)

AI-ontwikkelaars doen er alles aan om deze hallucinaties te vermijden, maar ze blijven hardnekkig opduiken en kunnen met de huidige technieken nooit helemaal uitgesloten worden. Wees je hier dus bewust van en neem niet zomaar informatie van een chatbot voor waar aan. Controleer de gegevens altijd via een tweede bron.

Chatbots zijn ontworpen om gebruikers zo lang mogelijk op het platform te houden. Hierdoor neigen ze ernaar onderdanig te zijn en gebruikers naar de mond te praten. Ze kunnen zich inleven in rollen waarbij ze gebruikers meenemen in wilde fantasieën, van complottheorieën zoals "The Matrix" tot zogenaamd revolutionaire wiskundige formules die het internet kunnen platleggen. Er zijn zelfs gedocumenteerde gevallen waarin chatbots gebruikers hebben aangemoedigd tot het plegen van een aanslag op koningin Elisabeth of jongeren hebben aangespoord tot zelfmoord. Blijf daarom altijd kritisch en laat je niet misleiden door de inschikkelijke houding van chatbots.

 

6. Context is koning

Bij het opstellen van een goede prompt is voldoende context essentieel. Dit principe komt in verschillende vormen terug in prompt engineering richtlijnen. Hoe meer context je biedt, hoe minder het AI-model zelf moet invullen, wat de kans op hallucinaties en onjuiste redeneringen aanzienlijk verkleint.

Een effectieve template voor een goede prompt bestaat uit de volgende elementen:

  • Doel: specificeer wat je wilt bereiken en welke taak het AI-model moet uitvoeren.
  • Context: leg uit waarom je deze informatie nodig hebt en voeg alle relevante achtergrond toe die het model kan helpen een preciezer antwoord te geven.
  • Verwachtingen: beschrijf je gewenste outputformaat (bijvoorbeeld bullet points of doorlopende tekst) en voor welk publiek het antwoord bedoeld is.
  • Bronnen: geef aan welke informatiebronnen het model moet gebruiken (bijvoorbeeld een specifieke website of een bijgevoegd document).

Je krijgt vaak niet meteen het gewenste antwoord. In zo'n geval helpt het om vervolgvragen te stellen die de context verduidelijken. Begin daarom met een eenvoudige vraag en breid deze geleidelijk uit of herformuleer wanneer nodig.

7. Oefen in een veilig domein

Zoals met veel vaardigheden geldt hier ook: oefening baart kunst! Hoe meer ervaring je opdoet met AI, hoe beter je dit in de vingers krijgt en hoe beter je de subtiliteiten zult begrijpen. Je zult hallucinaties makkelijker herkennen en beter weten hoe je voldoende context kunt voorzien. Zodra je wat ervaring hebt opgedaan, wordt het ook interessant om verschillende chatbots te vergelijken, zoals Gemini van Googlehet Franse Mistral of Claude van Anthropic. Deze chatbots hebben elk hun eigen sterktes, zo is Claude populair voor het schrijven van computercode. Uiteindelijk speelt persoonlijke voorkeur ook een belangrijke rol.

Afbeelding met wiel, tekening, Landvoertuig, voertuig  Door AI gegenereerde inhoud is mogelijk onjuist.
Figuur: Oefen in een veilig domein (afbeelding gegenereerd met ChatGPT)

Begin met een domein waar je zelf expertise hebt. Dit stelt je in staat om de kwaliteit van antwoorden te beoordelen en misleiding direct te herkennen. Een interessante oefening is om AI te vragen jouw biografie te schrijven. Tenzij je een publiek figuur bent, bevat de trainingsdata waarschijnlijk weinig informatie over jou, waardoor het model zelf gegevens moet verzinnen. Moderne AI-chatbots kunnen tegenwoordig wel online informatie opzoeken, waardoor ze dergelijke vragen beter kunnen beantwoorden. Het loont de moeite om door te vragen.

Conclusie

AI is geen wondermiddel, maar een krachtig hulpmiddel dat met inzicht en verantwoordelijkheid gebruikt moet worden. De zeven promptgeboden die we hebben besproken bieden een leidraad voor iedereen die met AI wil werken: wees je bewust van de ecologische impact, bescherm je gegevens, erken dat AI niet neutraal is, laat je niet misleiden, geef voldoende context, oefen in een veilig domein en vergeet vooral niet om kritisch te blijven.

Dit overzicht biedt slechts een introductie tot verantwoord AI-gebruik. Voor wie dieper wil ingaan op dit thema, verwijs ik graag naar mijn boek ’Het Masker van AI’ waarin deze concepten uitgebreider worden behandeld en waarin ik ook inga op de bredere maatschappelijke implicaties van artificiële intelligentie.

Uiteindelijk is het aan ons allen om AI op een ethische en doordachte manier te integreren in ons dagelijks leven, waarbij we de voordelen benutten zonder de risico's uit het oog te verliezen. Door geïnformeerd en kritisch met deze technologie om te gaan, kunnen we ervoor zorgen dat AI een positieve kracht blijft in onze samenleving.

 

Afbeelding met tekst, schermopname, Lettertype, tekenfilm  Door AI gegenereerde inhoud is mogelijk onjuist.
Figuur: Overzicht van de 7 prompt geboden (een pdf versie kan je downloaden via deze link).

Meer informatie

Voor meer info over de ecologische voetafdruk zie: Hoe vervuilend is AI? De ecologische afdruk van AI

In het boek “Het Masker van AI” van Wim Casteels, dat in oktober verschijnt, worden deze thema's uitgebreider behandeld. Met de code "masker10" ontvang je 10% korting op het boek. (Deze code is alleen geldig via de webshop van Lannoo/LannooCampus tot 20/10/2025 en niet combineerbaar met andere promoties en kortingscodes.)

Op de website wimcasteels.be vind je meer blogposts over de maatschappelijke uitdagingen van AI.

Je kunt Wim Casteels ook vinden op LinkedIn of contact opnemen via wim.casteels@ap.be

 

©️ Omslagfoto: Bart Fish & Power Tools of AI / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/

Disclaimer: Het Kenniscentrum Data & Maatschappij is niet verantwoordelijk voor de inhoud van gastbijdrages en zal dan ook niet corresponderen over de inhoud. Bij vragen, opmerkingen of zorgen: neem contact op met de auteur(s)!

Auteur

Zomerblog Wim Casteels headshot

Wim Casteels

Wim Casteels is docent en onderzoeker aan de AP Hogeschool Antwerpen in het domein IT & AI. Hij behaalde een doctoraat in de fysica aan de Universiteit Antwerpen en werkte eerder als data scientist en senior onderzoeker in kunstmatige intelligentie bij Argenta en imec. Met zijn combinatie van academische diepgang en praktijkervaring zet hij zich in voor het verantwoord en innovatief inzetten van AI in onderwijs en samenleving.