opinie

Afspraken en autoriteiten voor algoritmes: ze zijn er al!

05.05.2022

In 2022 staat artificiële intelligentie (AI) opnieuw prominent op de agenda van vele beleidsmakers en organisaties. Ook in de pers, zoals in De Tijd, Datanews of De Morgen, wordt de regulering van AI druk besproken. De roep voor een gepast of zelfs nieuw juridisch kader voor AI is nog luider geworden sinds de publicatie van het Voorstel van AI Verordening in 2021.

In deze ‘AI gekte’ willen we toch oproepen tot de nodige zorgvuldigheid en tot een gerichte aanpak met betrekking tot de regulering van deze technologie. Immers, wie pleit voor een volledig nieuw juridisch kader voor AI veronderstelt dat de huidige kaders onvoldoende zijn én/of dat meer of nieuwe wetgeving sowieso beter is. Vaak gaat het daarbij om voorstellen van nieuwe regels of (op te richten) autoriteiten, en dan bij voorkeur op Europees niveau. En hoewel wetgevende initiatieven en voorstellen zeker een meerwaarde kunnen zijn, moet de insteek ervan toch in een gepast perspectief worden geplaatst.

Nood aan nieuwe regels?

We moeten ten eerste beseffen dat er al heel wat regels van toepassing zijn op AI, bijvoorbeeld op het vlak van gegevensbescherming, economisch recht, arbeidsrecht, productveiligheid, ... Zo publiceerde het Kenniscentrum Data en Maatschappij een studie rond de vraag in welke mate de ethische principes en vereisten die werden aangenomen door de High Level Expert Group on AI en de bijhorende vragenlijst (ALTAI) reeds worden weerspiegeld in bestaande wetgeving. Wat blijkt: veel van die principes zijn al terug te vinden in bestaande regelgevende kaders, maar vereisen verduidelijking, verfijning, aanpassing, betere bekendmaking en afdwinging. Ons logische eerste voorstel gericht aan beleidsmakers is dan ook tweevoudig:

  • Ten eerste: breng bestaande regels opnieuw en/of beter onder de aandacht van de relevante actoren in het ecosysteem (bv. CAO 39), zodat er een beter besef is van zowel de verplichtingen als de bescherming van bedrijven, burgers en werknemers.
  • Ten tweede: besteed meer middelen en tijd aan het evalueren van bestaande regels en het zoeken naar leemtes die aanpassingen of verduidelijkingen vereisen. Vervolgens kunnen gerichte aanpassingen en verduidelijkingen worden gemaakt door middel van een interdisciplinaire en deliberatieve aanpak. Een concreet voorbeeld kan helpen. Onder het productaansprakelijkheidsregime is het nog steeds niet duidelijk of software een product of dienst is. Zodra die vraag wordt opgelost, zal er ook meer duidelijkheid zijn voor AI-toepassingen.

Nood aan nieuwe autoriteiten?

Naast nieuwe regels wordt ook opgeroepen tot het oprichten van nieuwe toezichthoudende autoriteiten voor AI. In de voorgestelde AI Verordening wordt bijvoorbeeld gesproken over een Europees Comité voor AI, nationale autoriteiten die bevoegd zijn voor de afdwinging van de Verordening, een nationale toezichthoudende autoriteit die optreedt als aanmeldende instantie en een markttoezichtautoriteit. Kortom, een amalgaam aan autoriteiten zal worden betrokken bij de uitvoering van de AI Verordening.

Dit staat haaks op de nood van betrokken actoren aan duidelijkheid omtrent de aan te spreken overheden en bemoeilijkt een eenduidige interpretatie van de verschillende wettelijke kaders. Daarenboven bestaat het risico op overlapping met bestaande autoriteiten, zowel wat betreft bevoegdheid als onderlinge coördinatie. Communicatie en complementariteit tussen bestaande (en nieuwe op te richten) autoriteiten is dus fundamenteel. Hier wringt het schoentje soms. Neem het voorbeeld van ANPR-camera’s (Automatic Number Plate Recognition). Deze camerabeelden zijn persoonsgegevens die onder andere verzameld worden door lokale overheden voor verschillende doeleinden. Afhankelijk van hetgeen waarvoor ze ingezet worden en wie de beelden beheerd zijn mogelijks de Gegevensbeschermingsautoriteit, de Vlaamse Toezichtcommissie voor de verwerking van persoonsgegevens en/of het Controleorgaan op de politionele informatie bevoegd. Bovendien maken ANPR-camera’s gebruik van beeldherkenning en kunnen ze dus ook onder de AI Verordening vallen, waardoor nog andere autoriteiten een rol zouden spelen.

  • Ons voorstel is dan ook, wederom, eerder simpel: zorg ervoor dat bestaande regels beter worden afgedwongen en versterk bestaande instellingen zoals de GBA, de economische inspectie of de rechterlijke macht en stel hen in staat om effectief toezicht te houden op het AI-ecosysteem. Vice versa, moet ook de toegang tot die autoriteiten door de burger worden gefaciliteerd.
“Zorg ervoor dat bestaande regels beter worden afgedwongen en versterk bestaande instellingen zoals de GBA, de economische inspectie of de rechterlijke macht en stel hen in staat om effectief toezicht te houden op het AI-ecosysteem”

Geen of-of maar een en-en-verhaal

Het doel van beleidsmakers moet niet het scheppen zijn van een volledig nieuw kader voor AI. Hun doel moet het beperken van de schadelijke risico’s van AI zijn. Volgens ons is het versterken van bestaande wetgeving en autoriteiten een noodzakelijke en logische stap daartoe.

Anderzijds ontkennen we niet dat AI-toepassingen eigen en nieuwe risico’s doen ontstaan en is het evenzeer nodig dat er wordt nagedacht over een proportioneel, op AI-toegespitst, kader. Op dit moment lijkt het er echter op dat dit op Europees niveau de enige optie is geworden en dat de klepel is doorgeslagen naar een omslachtig regime met een grote nalevingslast op bedrijven en een onduidelijke positie voor gebruikers en burgers.

Nieuwe wetgeving kunnen afkondigen genereert natuurlijk meer aandacht dan een waslijst van kleine incrementele aanpassingen aan de bestaande kaders of bevoegdheden en werking van autoriteiten. Toch willen wij alle beleidsmakers oproepen om zich niet enkel met dat eerste bezig te houden, maar ook de nodige tijd en middelen te besteden aan het tweede. Immers, afspraken en autoriteiten voor algoritmes, ze zijn er al maar ze hebben uw aandacht nodig.

Auteurs:

Auteurs:

Jan De Bruyne, CiTiP KU Leuven

Auteurs:

Ellen Wauters, CiTiP KU Leuven

Auteurs:

Thomas Gils, CiTiP KU Leuven

Auteurs:

Wannes Ooms, CiTiP KU Leuven