Tijdens de zomermaanden biedt het Kenniscentrum Data & Maatschappij een platform aan partnerorganisaties en experts. In deze gastbijdrage deelt Wim Casteels zijn zeven praktische vuistregels die je kunnen helpen bij het effectief en verantwoord inzetten van AI-chatbots.
De zeven promptgeboden
Maak jij ook steeds vaker gebruik van AI-chatbots zoals ChatGPT, maar krijg je nog niet het resultaat waar je op hoopt? Of vermijd je ze net omdat je geen vertrouwen hebt in wat deze chatbots opleveren? Met de zeven promptgeboden in dit artikel verhoog je de kans dat je tot een goed resultaat komt.
De lancering van ChatGPT door OpenAI eind 2022 veranderde AI van een relatief onbekend onderzoeksgebied in een onderwerp dat iedereen bezighoudt. Het was de snelst groeiende app ooit: ChatGPT bereikte in slechts 2 maanden 100 miljoen gebruikers, terwijl TikTok hier 9 maanden voor nodig had en Spotify zelfs 11 jaar. Momenteel heeft ChatGPT ongeveer 700 miljoen wekelijks actieve gebruikers. Sindsdien is artificiële intelligentie (AI) niet meer weg te denken uit de media en verschijnen er voortdurend nieuwe AI-modellen en toepassingen. Volgens de jaarlijkse imec.digimeter neemt het AI-gebruik onder Vlamingen toe, waarbij 45% van de Vlamingen in 2024 AI gebruikte. Ook bedrijven zetten steeds vaker AI in voor innovatie en procesautomatisering. De AI-barometer wees uit dat in 2023 al een derde van de Vlaamse bedrijven AI toepaste.
AI is geen magische oplossing, ook al lijkt dat soms wel zo. Om er optimaal gebruik van te maken, moet je je bewust zijn van de beperkingen. AI-geletterdheid omvat zowel het efficiënt gebruiken van deze tools als het begrijpen van hun grenzen. Deze beperkingen zijn niet altijd zichtbaar omdat AI-ontwikkelaars vaak essentiële informatie achterhouden, waardoor het moeilijk is een volledig beeld te krijgen. Het is vergelijkbaar met een masker: achter de gebruiksvriendelijke interfaces van AI-toepassingen schuilt een wereld vol (maatschappelijke) uitdagingen. De zeven ‘promptgeboden’ in deze blogpost bieden praktische vuistregels die je kunnen helpen bij het effectief en verantwoord inzetten van AI-chatbots.
AI is geen mens
Als mensen hebben we een sterke neiging om menselijke eigenschappen toe te kennen aan niet-menselijke entiteiten. Denk aan tekenfilms met pratende dieren of hoe we spreken over ‘Moeder Aarde’. Dit verschijnsel heet antropomorfisme en komt ook veel voor bij AI (zoals blijkt uit de vele mensachtige robots in films). Hierdoor schrijven we vaak onterecht menselijke eigenschappen toe aan AI, zoals het vermogen om te redeneren en bewustzijn te hebben.
Een voorbeeld hiervan is het computerprogramma ELIZA, ontwikkeld in de jaren 60 door professor Joseph Weizenbaum en algemeen beschouwd als de allereerste chatbot. ELIZA simuleerde een psychotherapeut door een simpele techniek toe te passen: het reflecteren van wat de patiënt zei. Voor Weizenbaum was dit slechts een experiment om mens-machine communicatie te bestuderen. Hij was verbijsterd door hoe snel mensen emotionele eigenschappen toeschreven aan de machine.
Ondanks dat de chatbot duidelijk geen intelligentie of begrip bezat, raakten mensen emotioneel gehecht aan het programma. Weizenbaums eigen secretaresse zou hem zelfs gevraagd hebben de kamer te verlaten zodat ze privé met ELIZA kon praten. Dit fenomeen, het toekennen van menselijke eigenschappen aan machines, staat sindsdien bekend als het ELIZA effect. Je kunt zelf met ELIZA experimenteren via deze link.
Figuur: Interface van de ELIZA chatbot (bron: Wikipedia)
Dit effect is nog veel sterker bij de nieuwe generatie chatbots die verrassend goed met taal overweg kunnen. De interface van bijvoorbeeld ChatGPT versterkt dit nog door aan te geven dat het model aan het "denken" is terwijl je op een reactie wacht. Hierdoor schrijven we deze AI-modellen onterecht ook andere menselijke eigenschappen toe, zoals redeneren en intelligentie.
In werkelijkheid zijn deze modellen alleen goed in het herkennen van patronen in hun trainingsdata en het genereren van plausibele antwoorden op basis daarvan. ChatGPT kan bijvoorbeeld eenvoudige rekensommen oplossen omdat deze veelvuldig online voorkomen en dus ruimschoots in de trainingsdata aanwezig zijn. Zodra berekeningen complexer worden, gaat het mis en ben je beter af met een rekenmachine. Veel AI-modellen hebben bijvoorbeeld moeite met het oplossen van een relatief eenvoudige vergelijking als 5,9=x+5,11.
Blijf daarom altijd kritisch en zie AI-modellen voor wat ze werkelijk zijn: toepassingen die hebben geleerd statistische patronen te herkennen in een enorme hoeveelheid trainingsdata, maar die geen eigen redeneringen kunnen opzetten, laat staan een echte gedachtengang kunnen ontwikkelen.
2. Denk duurzaam
Een grote verdienste van OpenAI is de gebruiksvriendelijke interface van ChatGPT, waardoor miljoenen mensen snel hun weg vonden naar de applicatie. Deze interface verhult echter wat er achter de schermen gebeurt: gigantische datacenters met duizenden computerservers die continu draaien. Door het enorme energieverbruik hebben verschillende techbedrijven hun klimaatdoelen al moeten bijstellen. Ze zoeken nu naar alternatieve energiebronnen om hun CO2-uitstoot te verminderen.
Figuur: Gebruiksvriendelijke interface van ChatGPT die als een masker verhult wat achter de schermen nodig is om dit te bereiken (bron: ChatGPT).
Veel datacenters verhuizen daarom naar IJsland, waar hernieuwbare energie zoals waterkracht ruim beschikbaar is en het koude klimaat het koelen van servers vereenvoudigt. Dit zet echter de lokale energievoorziening onder druk. Andere populaire alternatieven zijn kernenergie en zelfs de ontwikkeling van datacenters in de ruimte, waar zonne-energie in overvloed aanwezig is.
Het energieverbruik van AI verschilt per situatie, maar onderzoek wijst uit dat een typische ChatGPT-vraag ongeveer 0,3 Wh verbruikt (vergelijkbaar met een lamp die kort brandt) en dat 50 ChatGPT-vragen ongeveer 2 liter water kosten. Bewustzijn hiervan is belangrijk, maar de verantwoordelijkheid ligt niet primair bij eindgebruikers. Zo zal AI niet duurzamer worden door minder vriendelijk te zijn tegen chatbots. Bovendien is AI nu zo wijdverspreid ingebouwd in applicaties, zoals de ongevraagde AI Overviews van Google, dat gebruikers het nauwelijks kunnen vermijden. Een fundamentele oplossing vereist dat AI-bedrijven transparant communiceren over de ecologische impact van hun producten. Voel je dus niet schuldig telkens je AI gebruikt, maar wees wel kritisch naar de ecologische voetafdruk wanneer iemand een nieuwe AI-tool aanprijst.
3. Pas op met wat je deelt
Wanneer je iets aan ChatGPT vraagt, wordt dit naar de servers van OpenAI gestuurd voor verwerking. OpenAI is weinig transparant over wat er precies met je data gebeurt. AI-modellen hebben enorm veel trainingsdata nodig, en tenzij je dit expliciet uitschakelt in de instellingen, worden jouw gegevens waarschijnlijk gebruikt om hun modellen te verbeteren. In 2023 werd ChatGPT in Italië tijdelijk verboden en eind 2024 kreeg OpenAI er een boete van 15 miljoen euro vanwege ondoorzichtige dataverzameling.
Wees daarom voorzichtig met het delen van gevoelige informatie met chatbots. Samsung verbood zijn werknemers bijvoorbeeld het gebruik van externe AI-tools nadat bij een datalek bij OpenAIvertrouwelijke Samsung-documenten waren gelekt die medewerkers in ChatGPT hadden gekopieerd.
Bovendien is OpenAI nog steeds een startup die jaarlijks miljarden dollars verlies maakt en volgens eigen voorspellingen pas in 2029 winstgevend zal worden. Het bedrijf zoekt daarom actief naar een levensvatbaar businessmodel. Ze zouden in de verleiding kunnen komen om het voorbeeld te volgen van bedrijven als Google en Meta, die hebben bewezen dat er enorme winsten te behalen zijn met het commercialiseren van gebruikersdata.
4. AI is niet neutraal
In essentie bestaan AI-modellen uit talloze kleine wiskundige bewerkingen. Maar hoe kan wiskunde niet neutraal zijn? Dit doet denken aan een vergelijking van taalwetenschapper Noam Chomsky tussen technologie en een hamer: een hamer maakt geen onderscheid tussen het bouwen van een huis of het inslaan van iemands schedel.
Figuur: AI is niet neutraal (afbeelding gegenereerd met ChatGPT)
AI-modellen staan echter bekend om hun ingebouwde vooroordelen, zoals racisme, seksisme en discriminatie van gemarginaliseerde groepen. Deze modellen nemen vooroordelen over uit hun trainingsdata en kunnen deze zelfs versterken. Een bekend voorbeeld is COMPAS, een systeem dat Amerikaanse rechters gebruikten om te bepalen wie in aanmerking kwam voor borgtocht. Het bleek dat dit systeem systematisch hogere scores toekende aan witte mensen dan aan mensen van kleur met vergelijkbare achtergronden, puur op basis van historische data. In Nederland zagen we een vergelijkbaar probleem bij de toeslagenaffaire, waarbij tienduizenden mensen ten onrechte van fraude werden beschuldigd en het systeem onevenredig veel mensen met een migratieachtergrond viseerde.
Ook nieuwere AI-toepassingen zoals ChatGPT bevatten ingebakken vooroordelen en stereotypen. Deze taalmodellen worden voornamelijk op Engelstalige data getraind, waardoor ze overwegend de Amerikaanse cultuur uitdragen. In China gebeurt dit minder subtiel: de overheid eist dat AI-taalmodellen de 'socialistische kernwaarden' uitdragen. Hierdoor krijg je bijvoorbeeld nauwelijks informatie over de gebeurtenissen op het Tiananmenplein of over de fysieke gelijkenissen tussen leider Xi Jinping en Winnie de Poeh. Hoewel het probleem van vooroordelen in AI al geruime tijd bekend is en er uitgebreid onderzoek naar gedaan wordt, blijven er hardnekkige voorbeelden van opduiken. Een recent voorbeeld is de chatbot Grok van Elon Musk'sx.ai die antisemitische opmerkingen plaatste op X en zichzelf 'MechaHitler' noemde. Wees je hiervan bewust bij het gebruik van AI en ga er niet van uit dat antwoorden moreel neutraal zijn.
Figuur: Laat je niet misleiden (afbeelding gegenereerd met ChatGPT)
AI-ontwikkelaars doen er alles aan om deze hallucinaties te vermijden, maar ze blijven hardnekkig opduiken en kunnen met de huidige technieken nooit helemaal uitgesloten worden. Wees je hier dus bewust van en neem niet zomaar informatie van een chatbot voor waar aan. Controleer de gegevens altijd via een tweede bron.
Bij het opstellen van een goede prompt is voldoende context essentieel. Dit principe komt in verschillende vormen terug in prompt engineering richtlijnen. Hoe meer context je biedt, hoe minder het AI-model zelf moet invullen, wat de kans op hallucinaties en onjuiste redeneringen aanzienlijk verkleint.
Een effectieve template voor een goede prompt bestaat uit de volgende elementen:
Doel: specificeer wat je wilt bereiken en welke taak het AI-model moet uitvoeren.
Context: leg uit waarom je deze informatie nodig hebt en voeg alle relevante achtergrond toe die het model kan helpen een preciezer antwoord te geven.
Verwachtingen: beschrijf je gewenste outputformaat (bijvoorbeeld bullet points of doorlopende tekst) en voor welk publiek het antwoord bedoeld is.
Bronnen: geef aan welke informatiebronnen het model moet gebruiken (bijvoorbeeld een specifieke website of een bijgevoegd document).
Je krijgt vaak niet meteen het gewenste antwoord. In zo'n geval helpt het om vervolgvragen te stellen die de context verduidelijken. Begin daarom met een eenvoudige vraag en breid deze geleidelijk uit of herformuleer wanneer nodig.
7. Oefen in een veilig domein
Zoals met veel vaardigheden geldt hier ook: oefening baart kunst! Hoe meer ervaring je opdoet met AI, hoe beter je dit in de vingers krijgt en hoe beter je de subtiliteiten zult begrijpen. Je zult hallucinaties makkelijker herkennen en beter weten hoe je voldoende context kunt voorzien. Zodra je wat ervaring hebt opgedaan, wordt het ook interessant om verschillende chatbots te vergelijken, zoals Gemini van Google, het Franse Mistral of Claude van Anthropic. Deze chatbots hebben elk hun eigen sterktes, zo is Claude populair voor het schrijven van computercode. Uiteindelijk speelt persoonlijke voorkeur ook een belangrijke rol.
Figuur: Oefen in een veilig domein (afbeelding gegenereerd met ChatGPT)
Begin met een domein waar je zelf expertise hebt. Dit stelt je in staat om de kwaliteit van antwoorden te beoordelen en misleiding direct te herkennen. Een interessante oefening is om AI te vragen jouw biografie te schrijven. Tenzij je een publiek figuur bent, bevat de trainingsdata waarschijnlijk weinig informatie over jou, waardoor het model zelf gegevens moet verzinnen. Moderne AI-chatbots kunnen tegenwoordig wel online informatie opzoeken, waardoor ze dergelijke vragen beter kunnen beantwoorden. Het loont de moeite om door te vragen.
Conclusie
AI is geen wondermiddel, maar een krachtig hulpmiddel dat met inzicht en verantwoordelijkheid gebruikt moet worden. De zeven promptgeboden die we hebben besproken bieden een leidraad voor iedereen die met AI wil werken: wees je bewust van de ecologische impact, bescherm je gegevens, erken dat AI niet neutraal is, laat je niet misleiden, geef voldoende context, oefen in een veilig domein en vergeet vooral niet om kritisch te blijven.
Dit overzicht biedt slechts een introductie tot verantwoord AI-gebruik. Voor wie dieper wil ingaan op dit thema, verwijs ik graag naar mijn boek ’Het Masker van AI’ waarin deze concepten uitgebreider worden behandeld en waarin ik ook inga op de bredere maatschappelijke implicaties van artificiële intelligentie.
Uiteindelijk is het aan ons allen om AI op een ethische en doordachte manier te integreren in ons dagelijks leven, waarbij we de voordelen benutten zonder de risico's uit het oog te verliezen. Door geïnformeerd en kritisch met deze technologie om te gaan, kunnen we ervoor zorgen dat AI een positieve kracht blijft in onze samenleving.
Figuur: Overzicht van de 7 prompt geboden (een pdf versie kan je downloaden via deze link).
In het boek “Het Masker van AI” van Wim Casteels, dat in oktober verschijnt, worden deze thema's uitgebreider behandeld. Met de code "masker10" ontvang je 10% korting op het boek. (Deze code is alleen geldig via de webshop van Lannoo/LannooCampus tot 20/10/2025 en niet combineerbaar met andere promoties en kortingscodes.)
Op de website wimcasteels.be vind je meer blogposts over de maatschappelijke uitdagingen van AI.
Disclaimer: Het Kenniscentrum Data & Maatschappij is niet verantwoordelijk voor de inhoud van gastbijdrages en zal dan ook niet corresponderen over de inhoud. Bij vragen, opmerkingen of zorgen: neem contact op met de auteur(s)!
Gerelateerde tools en publicaties van het kenniscentrum
Wim Casteels is docent en onderzoeker aan de AP Hogeschool Antwerpen in het domein IT & AI. Hij behaalde een doctoraat in de fysica aan de Universiteit Antwerpen en werkte eerder als data scientist en senior onderzoeker in kunstmatige intelligentie bij Argenta en imec. Met zijn combinatie van academische diepgang en praktijkervaring zet hij zich in voor het verantwoord en innovatief inzetten van AI in onderwijs en samenleving.