Nieuws

AI Act: stand van zaken en volgende stappen

15.12.2023

Naar aanleiding van het politieke akkoord dat werd bereikt tussen de EU-instellingen, geven we in dit artikel kort wat toelichting bij de huidige stand van zaken van de EU AI Act (volledige naam: Verordening van het Europees parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie)). Verder leggen we ook uit wat de volgende, te verwachten stappen zijn.

Stand van zaken

De AI Act zit nog steeds in de zogenaamde fase van de “trilogen”. Dat is een EU-term voor het onderhandelingsproces tussen de wetgevende EU-instellingen: de Europese Commissie, de Raad van de EU en het Europees Parlement. Elke van deze partijen begon aan deze onderhandeling met een eigen versie van de AI Act. Eerst publiceerde de Europese Commissie een voorstel in 2021, eind 2022 volgde de Raad met een herwerkte versie en midden 2023 bereikte ook het Parlement een akkoord voor een tekst. Vervolgens begonnen de drie instellingen aan de trilogen.

De belangrijke evolutie in die trilogen is dat er op 8/9 december, na een lange en intensieve onderhandeling, een politiek akkoord rond de belangrijkste punten van de AI Act uit de bus is gekomen. Dat akkoord is een belangrijke stap en legt bepaalde politieke krijtlijnen neer. Er is echter nog géén volledig uitgewerkte tekst en ook nog geen volledige duidelijkheid over wat er nu net allemaal een akkoord werd gevonden.

Invloed politiek akkoord op inhoud AI Act

Zowel de Commissie, de Raad en het Parlement publiceerden een persbericht waarin zij het politiek akkoord verder toelichtten. Op basis van deze persberichten is het duidelijk dat er een oplossing voor de discussie omtrent verschillende onderwerpen werd gevonden (niet exhaustief):

  • Zo lijkt er een (al bij al) duidelijk compromis rond de verboden AI-toepassingen en vermelden de verschillende berichten telkens emotieherkenning op de werkplaats en in het onderwijs, biometrische categorisatie op basis van gevoelige kenmerken (waaronder religie en ras) en manipulatieve AI-systemen. Ook ‘bepaalde gevallen van predictive policing’ zouden verboden worden.
  • Hoog risico AI-systemen zullen een verplichte ‘fundamental rights impact assessment moeten doorlopen en aan verschillende vereisten moeten voldoen (waaronder gegevenskwaliteitsvereisten, transparantie,…)
  • Ter ondersteuning van innovatie moeten lidstaten ‘regulatory sandboxes’ oprichten en wordt het mogelijk om (onder voorwaarden) AI-systemen te testen ‘in real world conditions'
  • Qua afdwinging van de AI Act zal het zwaartepunt bij de lidstaten liggen. Deze nationale autoriteiten zullen samenkomen in een ‘AI Board’ (met coördinerende en adviserende taken) en er zal binnen de schoot van de Commissie een ‘AI Office’ komen. Dit AI Office zal zich voornamelijk bezig houden met het toezicht op de meest geavanceerde AI-systemen (GPAI/foundation models, zie onder)
  • Het niet naleven van de regels zou leiden tot boetes variërend van 35 miljoen euro of 7% van de mondiale omzet tot 7,5 miljoen of 1,5% van de omzet, afhankelijk van de overtreding en de omvang van het bedrijf. Voor KMO’s en startende ondernemingen zouden er proportionelere plafonds gelden.
  • Natuurlijke personen/consumenten krijgen een klachtrecht indien ze vinden dat een AI-systeem de toepasselijke vereisten niet voldoet.

Verder is het ook interessant om vast te stellen dat de persberichten niet overal gelijk lopen, over bepaalde zaken zwijgen en dat het persbericht van de Raad op verschillende punten gedetailleerder is dan dat van de andere instellingen:

  • Zo valt het op dat enkel het persbericht van de Raad verwijst naar de mogelijke definitie van AI. Die definitie zou worden afgestemd op de definitie van AI die binnen de OESO werd afgesproken, maar die niet helemaal volgen. Aangezien deze definitie het aangrijpingspunt is van deze wetgeving, is het dan ook afwachten hoe de definitie net zal geformuleerd zijn zodat het toepassingsgebied duidelijk wordt.
  • In dezelfde trant vinden we ook enkel in het persbericht van de Raad een vermelding van de uitsluiting van het toepassingsgebied van de AI Act voor AI die louter voor onderzoek en innovatie gebruikt wordt.
  • Over remote biometric identification voor rechtshandhaving wijden voornamelijk het bericht van de Raad en het Parlement uit. In dat verband is het interessant om vast te stellen dat het Parlement stelt dat er een rechterlijke goedkeuring zal moeten zijn, terwijl de Raad dat niet vermeldt. Anderzijds vermeldt de Raad dan weer dat er een noodprocedure wordt ingevoerd zodat rechtshandhavingsinstanties in noodgevallen een hoog risico AI-systeem zouden kunnen inzetten dat nog geen conformiteitsbeoordeling heeft.
  • Het is ook enkel het bericht van de Raad dat gewag maakt van de extra, horizontale laag die zou worden toegevoegd om te bepalen of een AI-systeem hoog risico is of niet. Zo zou een AI-systeem toch geen hoog risico zijn als het ‘niet waarschijnlijk is dat het grondrechten ernstig in het gedrang zou brengen of andere significante risico's zal veroorzaken’. In de pers werd dat verder verduidelijkt en het zou dan gaan over bv. AI-systemen die een ‘nauwe procedurele taak’ hebben of vormen van ‘patroonherkenning’. Dit blijft echter hoogst onzeker.
  • Elk van de persberichten vermeldt ook dat er een regime voor General Purpose AI (GPAI) en/of ‘foundation models werd beklonken. Hier moet echter worden vastgesteld dat het Parlement spreekt over ‘high-impact GPAI models with systemic risk’ terwijl de Raad spreekt over ‘high impact’ foundation models with systemic risk’. In de eerdere teksten werden GPAI en foundation models echter verschillend gedefinieerd, waardoor ze een verschillende positie in de waardeketen van AI opnamen. De Commissie vermeldt in dit verband trouwens ook het begrip “general purpose models”, een compromis? In elk geval ziet het ernaar uit dat dergelijke AI-systemen bv. bijkomende transparantie zullen moeten verschaffen en systemische risicobeoordelingen moeten doen.
  • Er zou ook transparantie moeten verschaft worden met betrekking tot de artificiële aard van output van generatieve AI-output/deep fakes (incl. zogenaamde machine-leesbare ‘watermarking’) In de eerdere teksten werden daar echter steevast uitzonderingen op voorzien (bv. voor artistieke of satirische doeleinden). Bij gebrek aan vermelding, is het dus afwachten of deze uitzonderingen ook zullen terugkeren in de finale tekst.

Volgende stappen

Dit politiek akkoord moet nu verder worden uitgewerkt en omgezet in een gedetailleerde wettekst. Dat gebeurt in zogenaamde ‘technical meetings’ waar vertegenwoordigers van de instellingen zich buigen over elk woord. Vervolgens moet de tekst nog een juridische en taalkundige check ondergaan en een definitieve stemming/goedkeuring in het Parlement en de Raad. Gelet op de Europese verkiezingen begin juni, zal dit ten laatste tijdens de plenaire zitting van het Parlement van 22 tot 25 april moeten gebeuren. We verwachten daarom een volledige tekst in de loop van januari of begin februari. De AI Act zal echter pas twee jaar later in werking treden (behoudens enkele uitzonderingen).

Contact

Contact

Thomas Gils
thomas.gils@kuleuven.be

Contact

Wannes Ooms
wannes.ooms@kuleuven.be

Eerder posts op onze beleidsmonitor rond dit onderwerp:

Voorstel van Europese Commissie: https://data-en-maatschappij.a...

Compromis binnen de Raad: https://data-en-maatschappij.a...

Eerdere artikels in de pers met medewerkers van het Kenniscentrum rond dit onderwerp:

De Standaard: https://www.standaard.be/cnt/d...

De Morgen: https://www.demorgen.be/nieuws...

De Tijd: https://www.tijd.be/dossiers/d...