Nieuw thema AI-geletterdheid

Ontdek
A person in a suit holds a box labeled ''sandbox'' 
Een persoon in een maatpak houdt een doos vast met het opschrift ‘sandbox’.
19.12.2025

AI Sandboxes: Tussen beloften en gevaren

AI regulatory sandboxes (AI-testomgevingen voor regelgeving) zoals geïntroduceerd door de Europese AI Act zijn regelgevende leerinstrumenten die zijn ontworpen om verantwoorde AI-innovatie te ondersteunen en tegelijkertijd de veiligheid, gezondheid en grondrechten te waarborgen. In dit artikel stellen de auteurs dat er nog verschillende onbekende factoren zijn over de werking en implementatie van AI regulatory sandboxes (hierna: Sandboxes), waardoor het onduidelijk is of de huidige vorm het beoogde doel zal kunnen bereiken. 

Om de potentiële voordelen ten volle te benutten, moeten bij het ontwerp en de implementatie van Sandboxes belangrijke uitdagingen worden aangepakt, waaronder een onduidelijke reikwijdte van deelname, ongelijke middelen, mogelijke bureaucratische obstakels en bezorgdheid over transparantie. We sporen regelgevers aan om deze kwesties aan te pakken via de verwachte uitvoeringsbesluiten voor de Sandboxes of, waar van toepassing, binnen het Digital Omnibus-initiatief dat momenteel gericht is op het dichten van hiaten in de digitale regelgeving van de EU.

Wat zijn AI Sandboxes onder de AI Act?

De Europese AI Act introduceert een kader voor AI Sandboxes als een belangrijk bestuursmechanisme. Zoals gedefinieerd in artikel 3, lid 55 van de AI Act is een Sandbox een gecontroleerd kader dat door een bevoegde autoriteit wordt opgezet en dat aanbieders van AI-systemen in staat stelt om in samenwerking met regulatoren innovaties te ontwikkelen, te trainen, te valideren en te testen. Een Sandboxplan beschrijft de doelstellingen, voorwaarden, tijdschema's, methodologieën en vereisten voor activiteiten onder toezicht van de regelgevende instanties. In dit verband is het van cruciaal belang om te begrijpen wat Sandboxes in de praktijk betekenen. Hoewel de bepalingen ervan pas in augustus 2026 van kracht worden, hebben sommige lidstaten, waaronder Spanje, al nationale initiatieven gelanceerd in afwachting van de uitvoeringsbesluiten voor de Sandboxes, die de Europese Commissie op grond van artikel 58, lid 1 van de AI Act moet vaststellen.

Hoewel er geen algemeen aanvaard model bestaat voor wat een Sandbox precies inhoudt, heeft The Joint Research Centre van de Europese Commissie (Het Gemeenschappelijk Centrum voor Onderzoek van de Europese Commissie) de nadruk gelegd op regelgevend leren in verschillende soorten experimentele ruimtes, waaronder Sandboxes, als een middel voor regelgevers om te reageren op en zich aan te passen aan snel ontwikkelende technologieën. Er bestaan weliswaar andere experimentele ruimtes, zoals testomgevingen en living labs, maar deze zijn voornamelijk gericht op het opschalen van technologie of co-creatie. Sandboxes zijn daarentegen gericht op het genereren van technisch-juridisch bewijs door innovaties en regelgevende benaderingen in marktomstandigheden te testen om de rechtszekerheid te verbeteren. Het doel is om de ontwikkeling en het testen van innovatieve AI-systemen (met name van kmo's en startups) onder regelgevend toezicht te vergemakkelijken, zodat regelgevers en innovators kunnen leren, zich kunnen aanpassen en vertrouwen kunnen opbouwen, waardoor de juiste prikkels en voorwaarden voor innovatie worden gecreëerd.

Er bestaan al sectorspecifieke Sandboxes in Europa, met name in de financiële en energiesector. Zo hebben Noorwegen en Frankrijk al privacy-sandboxes opgezet. In tegenstelling tot deze sectorale initiatieven is de aanpak van de AI Act, zoals uiteengezet in artikel 57, nieuw omdat elke lidstaat verplicht wordt om ten minste één sandbox op te zetten en voldoende middelen toe te wijzen om aan de vereisten van de wet te voldoen. Lidstaten kunnen aan deze verplichting voldoen door deel te nemen aan een bestaande Sandbox in plaats van een nieuwe op te zetten. Door gebruik te maken van bestaande sandbox-ervaringen kunnen belanghebbenden Sandboxes zien als onderdeel van een breder regelgevingsinstrumentarium van experimenteerruimtes in plaats van als een op zichzelf staande regelgevingsinnovatie. 

Een van de vermeende kenmerken van de Sandboxes is de tijdelijke versoepeling van bepaalde regels over het opleggen van boetes tijdens het testen (artikel 57, lid 12). Hierdoor kunnen tests en validatie plaatsvinden zonder het onmiddellijke risico van administratieve boetes, zolang de richtlijnen van de bevoegde autoriteiten worden nageleefd. In de praktijk kan dit betekenen dat er tijdelijke ontheffingen worden verleend, verplichtingen worden gestroomlijnd of gefaseerde nalevingsmechanismen worden ingevoerd. Helaas blijft de reikwijdte van de toepassing van de AI Act in deze scenario's enigszins onduidelijk, terwijl andere toepasselijke wetgeving, zoals de Algemene Verordening Gegevensbescherming (AVG) of sectorspecifieke regelgeving, tijdens het sandboxproces van kracht blijft.

Wie mag deelnemen aan deze sandboxes en waarom is dat belangrijk?

Vele actoren spelen een rol in het sandbox-proces, met verschillende rollen en verantwoordelijkheden. Elke EU-lidstaat moet een nationale bevoegde autoriteit aanwijzen die verantwoordelijk is voor het opzetten van een Sandbox en het toelaten van deelnemers, waardoor deze actoren een veilige haven krijgen die de toegangsdrempels verlaagt en een meer inclusief leerproces op het gebied van regelgeving ondersteunt. Naast deze bevoegde autoriteiten kunnen ook “aanbieders of potentiële aanbieders van AI-systemen” deelnemen aan de Sandboxes. Hoewel bijzondere nadruk wordt gelegd op het waarborgen van de toegankelijkheid voor kmo's, met inbegrip van startups (overweging 139), sluit de AI Act grotere bedrijven niet expliciet uit van deelname. De focus op kmo's is een goedbedoeld doel om Europese innovators te beschermen, maar er moet meer nadruk worden gelegd op de bredere voordelen van Sandboxes voor bedrijven die, hoewel ze niet als kmo's zijn geclassificeerd, meer zouden kunnen bijdragen aan Europese innovatie.

Het verduidelijken van de reikwijdte van deelname aan de Sandbox is bijzonder relevant gezien de structuur van de economie van de Europese Unie. Zoals het Draghi-rapport opmerkt, zijn slechts vier van de vijftig grootste technologiebedrijven ter wereld Europees, en grotere bedrijven ontwikkelen doorgaans geen modellen voor algemene artificiële intelligentie (GPAI) en opereren ook niet als zeer grote onlineplatforms of zeer grote zoekmachines. Veel middelgrote of grotere bedrijven beschikken echter wel over de expertise en middelen om geavanceerde AI-oplossingen te leveren. Het is echter van cruciaal belang dat deze bedrijven nog steeds tijd en financiering nodig hebben om hun nalevingscapaciteiten te versterken in het kader van de wereldwijde concurrentie. Als hun toegang tot Sandboxes over het hoofd wordt gezien, kan dit betekenen dat kansen voor bredere innovatie en inzichten worden gemist die kunnen helpen om het afnemende concurrentievermogen van Europa nieuw leven in te blazen. Er zijn al voorbeelden waarbij de Europese Commissie soortgelijke maatregelen onderzoekt: middelgrote bedrijven zouden moeten profiteren van vereenvoudigde verplichtingen in het kader van de AVG, en er worden proeftuinen opgezet om de uitrol van autonome voertuigen in de EU te versnellen.

Door het maatschappelijk middenveld, innovatiehubs en normalisatie-instellingen bij het proces te betrekken, vergroot overweging 139 van de AI Act de democratische legitimiteit van AI-experimenten. Tegelijkertijd kan deze diversiteit ook de sandbox-inspanningen vertragen en de administratieve lasten verhogen als de coördinatiestructuren onduidelijk of gefragmenteerd zijn. Hoewel de AI Act momenteel vereist dat de nationale bevoegde autoriteiten samenwerken met de AI-raad en jaarlijks verslag uitbrengen over de uitvoering van de Sandbox, zijn wij het eens met het voorstel van de Digital Omnibus om een Sandbox op EU-niveau in te stellen voor de systemen die worden genoemd in artikel 75, lid 1 van de AI Act, namelijk General Purpose AI (GPAI)-ontwikkelaars en AI-systemen die zijn ingebed in zeer grote onlineplatforms of zoekmachines, terwijl alle andere AI-systemen binnen het bestaande nationale toepassingsgebied blijven.

Helpen sandboxes om op risico’s vooruit te lopen en capaciteitsopbouw te ondersteunen?

De waardepropositie van de Sandboxes ligt in hun gecontroleerde omstandigheden, waardoor potentiële AI-risico's sneller kunnen worden aangepakt dan bedrijven normaal gesproken zouden doen met hun interne nalevingscontroles voordat ze op de open markt komen. Vooringenomenheid in datasets, veiligheidsproblemen of onbedoelde surveillancemogelijkheden kunnen gemakkelijker worden geïdentificeerd en aangepakt voordat ze worden geïmplementeerd. Iteratieve tests en feedbackloops tussen ontwikkelaars en autoriteiten maken het mogelijk om risicovolle scenario's te simuleren en ontwerpkeuzes daarop aan te passen. Deze anticiperende functie betekent dat veiligheidsmaatregelen geen bijzaak zijn, maar kunnen worden ingebouwd in de levenscyclus van AI-systemen. Door te testen in een gecontroleerde omgeving kunnen Sandboxes dus ook fungeren als een vroegtijdig waarschuwingssysteem voor ongewenste gevolgen van AI.

Zonder robuuste methoden of instrumenten om risico's adequaat aan het licht te brengen, kunnen positieve resultaten van Sandbox-tests echter bij gebruikers een vals gevoel van vertrouwen wekken, vooral gezien de heterogene inspanningen van de lidstaten op het gebied van AI-implementatie. Om deze bezorgdheden weg te nemen, is capaciteitsopbouw door de actor die belast is met het opzetten van de Sandbox van cruciaal belang. Door middel van Sandbox-toezicht kunnen regelgevers ook praktisch inzicht krijgen in hoe AI-systemen worden ontworpen, getest en ingezet, waardoor zij beter in staat zijn hun toezicht aan te passen aan technologische ontwikkelingen.

Hoewel Sandboxes talrijke voordelen bieden, vereist de implementatie ervan aanzienlijke personele middelen aan beide kanten: autoriteiten zullen expertise moeten ontwikkelen en opgeleid personeel moeten behouden, terwijl bedrijven die aan de Sandbox deelnemen personeel en tijd moeten vrijmaken voor naleving en experimenten. Opleidingen zijn essentieel om Sandboxes zinvolle lessen op het gebied van regelgeving te laten opleveren en deelnemers er voordeel uit te laten halen. Een evaluatie van de Noorse privacy-sandbox leverde bijvoorbeeld gemengde, maar over het algemeen positieve ervaringen op. Een andere beoordeling van deze Sandbox door de Noorse nationale rekenkamer bracht onopgeloste vragen en fundamentele kwesties aan het licht die de Sandbox niet kon aanpakken.

Naast menselijke expertise hangt de effectiviteit van Sandboxes ook af van voldoende financiële en infrastructurele middelen. Voor een effectieve implementatie en toezicht zijn bekwaam personeel en voldoende financiering nodig. Dit vormt een aanzienlijke uitdaging, vooral gezien het precedent van beperkte financiële middelen die in het kader van de AVG aan nationale autoriteiten in de EU-lidstaten worden toegewezen. Financiële schaarste kan het aantal projecten beperken, sandboxprocessen vertragen en uiteindelijk de reikwijdte en schaal van innovatie die het kader kan ondersteunen, beperken. Verschillen tussen de capaciteiten van de lidstaten verergeren de uitdaging nog verder, waardoor er ongelijke kansen voor deelname en innovatie ontstaan. Het feit dat artikel 57, lid 4 van de AI Act adequate middelen voorschrijft, zal weinig opleveren als de middelen niet worden of kunnen worden toegewezen. Ten slotte is de AI Act opgesteld in een tijd waarin grote taalmodellen (LLM's) nog in de kinderschoenen stonden en de rekencapaciteit van toen in schril contrast staat met de huidige trends. Om dit gebrek aan capaciteit te ondervangen, zou het koppelen van de Sandboxes aan andere initiatieven, zoals de AI-fabrieken van de EU, van cruciaal belang kunnen zijn voor het versterken van de algehele capaciteitsopbouw in Europa, ongeacht de omvang van bedrijven.

Wat is de waarde van eindverslagen en kennisdeling?

Op grond van de AI Act moeten bevoegde autoriteiten aanbieders die deelnemen aan de Sandbox eindverslagen en documentatie van activiteiten aanbieden, die kunnen worden gebruikt als bewijs van naleving. Eindverslagen zijn bedoeld om de resultaten van een systeem in een Sandbox te documenteren en om de weg naar de markt te begeleiden. De AI Act legt echter niet de publicatie van deze rapporten op, zelfs niet van die delen die geen bedrijfsgeheimen onthullen. De openbare beschikbaarheid van eindverslagen  is afhankelijk van wederzijdse overeenstemming tussen de aanbieder(s) en de nationale autoriteit. Als gevolg daarvan kunnen de lessen die zijn geleerd, de beste praktijken en de risicobeperkende strategieën die binnen de Sandbox zijn ontwikkeld, begrenst  blijven tot de deelnemende organisaties en autoriteiten, waardoor de potentiële voordelen van deze rapporten voor andere bedrijven en het bredere publiek, met inbegrip van het maatschappelijk middenveld, dat bij het proces betrokken zou moeten zijn, worden beperkt.

Helaas zijn wij van mening dat de status quo aangeeft dat de bredere doelstellingen van samenwerking en kennisdeling die Sandboxes beogen te bevorderen, waarschijnlijk niet zullen worden bereikt. Cruciaal is dat de isolatie van kennis nog verder kan worden versterkt, gezien het feit dat de industrie zich zorgen maakt over financiële (50%) en reputatierisico's (42%) die kunnen voortvloeien uit AI-incidenten. Dergelijke zorgen kunnen selectieve openbare rapportage in de hand werken, waardoor eindverslagen  een schijn van veiligheid en gereedheid geven die niet overeenkomt met de werkelijke prestaties of het risicoprofiel van een systeem in een live omgeving. Onderzoek naar machinewashing waarschuwt dat organisaties selectieve openbaarmaking kunnen gebruiken om de schijn van verantwoordelijke AI te wekken, terwijl ze onopgeloste risico's verbergen. Machinewashing verwijst naar misleidende communicatie of acties over AI die een schijnverantwoordelijkheid creëren. Dit probleem wordt vergroot door beperkte middelen en expertise aan de kant van de regelgevers, waardoor de reikwijdte van het testen kan worden beperkt en redelijkerwijs te verwachten risico's over het hoofd kunnen worden gezien.

Toch spelen eindverslagen een belangrijke rol. Voor bedrijven kan die documentatie de conformiteitsbeoordelingsprocedures in redelijke mate versnellen en de gereedheid voor markttoetreding bevorderen, waardoor onzekerheid wordt verminderd en de weg naar autorisatie wordt vergemakkelijkt. Een succesvolle afronding van een sandboxproces kan ook helpen om betrouwbaarheid uit te stralen naar investeerders en partners, waardoor het vertrouwen in het product wordt versterkt. Als ze transparant worden gemaakt, kunnen rapporten waarin geleerde lessen en effectieve risicobeperkende strategieën worden gedocumenteerd, helpen om goede praktijken te benchmarken, waardoor de voordelen verder reiken dan de directe deelnemers aan de sandbox. Op andere gebieden van de digitale regelgeving van de EU hebben spraakmakende cyberbeveiligingsincidenten Europese ondernemers ertoe aangezet om te pleiten voor strengere rapportageverplichtingen in het kader van het Digital Omnibus-initiatief. Voor eindverslagen van de AI Act-sandbox zou een constructieve aanpak echter kunnen zijn om een model voor vrijwillige openbaarmaking in te voeren, vergelijkbaar met het ‘levend archief’ over AI-geletterdheid , dat zou kunnen helpen om kennissilo's te verminderen en transparantere rapportage aan te moedigen.

Van belofte naar actie: garanderen dat AI-sandboxes hun belofte waarmaken

Sandboxes bieden zowel kansen als risico's. Ze zijn bedoeld als experimentele ruimtes voor verantwoorde innovatie, waar regelgevers en ontwikkelaars gezamenlijk AI-systemen testen, risico's anticiperen en toezichtspraktijken verfijnen. Als ze op een inclusieve manier worden geïmplementeerd, met voldoende middelen en ondubbelzinnige flexibiliteit op het gebied van regelgeving, kunnen ze deze belofte waarmaken. De valkuilen zijn echter even groot. Beperkte middelen kunnen de implementatie en het toezicht belemmeren, en het ontbreken van gestructureerde transparantieregelingen voor eindverslagen  brengt het risico met zich mee dat waardevolle lessen in silo's terechtkomen en collectief leren wordt beperkt. Ongelijke deelname en capaciteitsverschillen tussen de lidstaten kunnen ook de inclusiviteit van het kader ondermijnen en bestaande innovatiekloven vergroten. Bovendien mogen positieve resultaten van Sandboxes niet worden verward met garanties voor veiligheid; dit zou een vals gevoel van veiligheid kunnen aanwakkeren en machinewashing in de hand werken. Het is daarom van cruciaal belang om mechanismen te ontwikkelen om te beoordelen of Sandboxes zowel regelgevers als deelnemers daadwerkelijk ondersteunen.

Uiteindelijk hangt het succes van het Sandbox-kader af van de vraag of de EU-instellingen en de lidstaten het benaderen als een echt instrument voor co-regulering en wederzijds leren, of dat ze het laten verworden tot een bureaucratisch ritueel. De uitdaging is om het juiste evenwicht te vinden: Sandboxes moeten flexibel genoeg blijven om innovatie te bevorderen, maar ook robuust genoeg om rechten te waarborgen, verantwoordingsplicht te garanderen en het vertrouwen van het publiek te versterken. AI Regulatory Sandboxes zijn slechts één onderdeel van de bredere digitale wetgeving van de EU, maar hun impact zal afhangen van een coherente uitvoering en duidelijkheid. Wij dringen er daarom bij de regelgever op aan om deze uitdagingen aan te pakken via de uitvoeringshandelingen die zullen worden vastgesteld overeenkomstig artikel 58, lid 1, of, indien nodig, in het kader van het bredere Digital Omnibus-initiatief, en om rekening te houden met de perspectieven die kunnen helpen om een antwoord te bieden op de Europese urgenties die in het Draghi-rapport worden benadrukt.

Disclaimer

Dit artikel werd oorspronkelijk in het Engels gepubliceerd op de website van de KU Leuven. Dit artikel geeft uitsluitend de mening van de auteurs weer en vertegenwoordigt niet het standpunt van het Kenniscentrum Data & Maatschappij. 

Het Kenniscentrum Data & Maatschappij is niet verantwoordelijk voor de inhoud van gastblogs en zal dan ook niet corresponderen over de inhoud ervan. Voor vragen, opmerkingen of bezorgdheden: neem contact op met de auteur(s)!

Over

Deze blog werd origineel gepubliceerd in het Engels en werd vertaald naar het Nederlands door het Kenniscentrum Data & Maatschappij. Hierbij werd de AI-vertalingstool DeepL gebruikt. De vertaling werd nagelezen door een juridische expert van het KU Leuven Centre for IT & IP Law.

Auteursrechten omslagafbeelding: AdobeStock referentienummer: 1733857113

Auteurs

Aina Errando Researcher imec SMIT VUB

Aina Errando

Aina Errando is doctoraatsonderzoeker bij de Media, Economics and Policy unit van imec-SMIT, Vrije Universiteit Brussel, waar ze zich bezighoudt met algoritmen en nieuwspersonalisatie in mediaorganisaties.

Abdullah Elbi Researcher Ci Ti P

Abdullah Elbi

Abdullah Elbi is doctoraatsonderzoeker aan de KU Leuven bij het Centre for IT and IP Law. Hij richt zich op de regulering van AI, grondrechten, gegevensbescherming, biometrie, surveillance van werknemers en menselijk toezicht.

Alicja Guestblog AI Sandboxes 2025

Alicja Halbryt

Alicja Halbryt is een technologiefilosoof en mensgerichte ontwerper met een focus op AI-ethiek. Ze heeft ervaring opgedaan bij beleidsbepalende organisaties en de overheid.

Oystein Guestblog AI Sandboxes 2025

Øystein Flø Baste

Øystein Flø Baste is doctoraatsonderzoeker bij het project Digital Welfare State van de afdeling Publiek en Internationaal Recht aan de Universiteit van Oslo.

Edoardo AI sandboxes guestblog 2025

Edoardo Peña

Edoardo Peña is Regulatory Affairs Engineer voor autonome voertuigen en algemene veiligheid bij Nissan Motor Corporation en doctoraatsstudent elektrotechniek aan de KU Leuven (COSIC), waar hij onderzoek doet naar cyberbeveiliging en governance van autonome rijsystemen. De geuite meningen zijn uitsluitend die van hemzelf en geven niet de standpunten of meningen van zijn werkgever weer.