Gids

WIKAIPEDIA: Een gids rond ethische richtsnoeren voor betrouwbare articifiële intelligentie

1

MENSELIJKE CONTROLE EN MENSELIJK TOEZICHT

Met de eerste ethische vereiste, menselijke controle en menselijk toezicht, wordt gedoeld op het feit dat AI-systemen de menselijke autonomie en het menselijk beslissingsproces moeten ondersteunen, zoals volgt uit het beginsel van respect voor de menselijke autonomie. Daarvoor is het nodig dat AI-systemen zowel een democratische en gelijkwaardige samenleving mogelijk maken door de gebruikersautonomie te garanderen, als fundamentele rechten respecteren, wat dient te worden afgedwongen door middel van menselijk toezicht.

Onder deze vereiste worden AI-systemen beoordeeld op basis van twee sub-componenten, namelijk de mate waarin zij

  • menselijke autonomie
  • menselijk toezicht toelaten.

Menselijke autonomie behandelt het effect dat AI-systemen kunnen hebben op menselijk gedrag in de breedste zin van het woord. Het omvat de effecten van AI-systemen die gericht zijn op het sturen, beïnvloeden of ondersteunen van personen in hun besluitvormingsprocessen zoals algoritmische beslissingsondersteunende systemen, risicoanalyse/voorspellingssystemen (bv. recommender systems, predictive policing, financial risk analysis). Het omvat ook het effect op de menselijke perceptie en de verwachtingen wanneer men geconfronteerd wordt met AI-systemen die 'handelen' zoals mensen. Tot slot behandelt dit deelvereiste het effect van AI-systemen op menselijke affectie, vertrouwen en (on)afhankelijkheid.

De vereiste van menselijk toezicht helpt om zelf de vereiste toezichtsmechanismen te beoordelen. Dergelijk toezicht kan worden verwezenlijkt via beheersmechanismen, zoals een benadering met human-in-the-loop (HITL), human-on-the-loop (HOTL) of human-in-command (HIC).

  • HITL verwijst naar de mogelijkheid tot menselijke interventie in elke besluitcyclus van het systeem.
  • HOTL verwijst naar de mogelijkheid tot menselijke interventie gedurende de ontwerpcyclus van het systeem en het monitoren van de werking van het systeem.
  • HIC verwijst naar de mogelijkheid om de algemene werking van het AI-systeem te overzien (inclusief de ruimere economische, maatschappelijke, juridische en ethische impact) en de mogelijkheid om te kiezen wanneer en hoe het systeem in een specifieke situatie wordt gebruikt. Daarbij kan het bijvoorbeeld gaan om de keuze om een AI-systeem in een bepaalde situatie niet te gebruiken, om een bepaald niveau van menselijke beoordelingsvrijheid te garanderen tijdens het gebruik van het systeem of om te garanderen dat een door het AI-systeem genomen beslissing kan worden herroepen.

Hou hierbij rekening met het feit dat, afhankelijk van het toepassingsgebied van het AI-systeem en het potentiële risico, er meer of minder verregaande toezichtmechanismen nodig kunnen zijn om andere veiligheids- en controlemaatregelen te ondersteunen. Indien alle andere omstandigheden gelijk blijven, moet een AI-systeem uitgebreider worden getest en kunnen er best strengere beheers-mechanismen worden geïmplementeerd naarmate er minder menselijk toezicht op het systeem mogelijk is.

Lees meer over de toepasselijke rechtsregels, aandachtspunten en nuttige tools.

2

TECHNISCHE ROBUUSTHEID EN VEILIGHEID

De ethische vereiste van technische robuustheid houdt in dat AI-systemen met een preventieve benadering moeten worden ontwikkeld. AI-systemen moeten zich gedragen zoals voorzien en alle vormen van onaanvaardbare schade moeten worden vermeden. De fysieke en mentale integriteit van mensen moet altijd worden gewaarborgd.

Het vereiste van technische robuustheid bestaat uit vier sub-componenten: (1) weerbaarheid tegen aanvallen en bedreigingen, (2) algemene veiligheidsmaatregelen, (3) nauwkeurigheid en (4) betrouwbaarheid.

Lees meer over de toepasselijke rechtsregels, aandachtspunten en nuttige tools.

3

PRIVACY EN DATABEHEER

Wat betekent de ethische vereiste?

Deze ethische vereiste heeft betrekking op de grondrechten van eenieder op bescherming van het privéleven en het nauw daaraan verwante recht op gegevensbescherming. Deze rechten dragen bij aan het beschermen van de mentale en fysieke integriteit van natuurlijke personen. Het beginsel ‘preventie van schade’ speelt dan ook een belangrijke rol bij deze ethische vereiste. Om deze schade in de praktijk te beperken, is een doorgedreven risico-gebaseerde benadering nodig die op zich een performante data-governance (databeheer) vereist.

Deze ethische vereiste dekt de volgende drie sub-componenten (1) privacy en gegevensbescherming, (2) kwaliteit en integriteit van gegevens en (3) toegang tot gegevens.

Ten eerste heeft deze betrekking op privacy en gegevensbescherming.

AI-systemen hebben doorgaans een grote honger naar informatie en data. Daarbij moet tijdens de gehele levenscyclus van het AI-systeem vermeden worden dat onwettige/ongegronde informatie verzameld, verwerkt of gegenereerd wordt die tot de privésfeer van de betrokkenen hoort of die daar een ongewenste inkijk in verschaft. Bij het verwerken en het genereren van persoonsgegevens moet rekening gehouden worden met het recht van de betrokkenen om deze gegevens niet te laten verwerken.

Daarbij moet bijzonder gewaakt worden over het feit dat uit rechtmatig verwerkte informatie geen conclusies getrokken worden die aspecten van iemand leven blootleggen die deze persoon niet wenst te delen of schade kunnen berokkenen. Persoonsgegevensverwerking kan immers een grote impact hebben op iemands rechten en vrijheden en resulteren in ernstige lichamelijke, materiële of immateriële schade (bv. discriminatie, reputatieschade, identiteitsdiefstal of -fraude, financiële verliezen of verlies van vertrouwelijkheid van door het beroepsgeheim beschermde persoonsgegeven). De naleving van de relevante regels is daarom vereist om aan burgers het nodige vertrouwen in AI-systemen te geven, zodat zij in volle vertrouwen hun gegevens met deze systemen kunnen delen, wetende dat zij hier niet onterecht door benadeeld zullen worden.

Ten tweede heeft deze ethische vereiste betrekking op de kwaliteit en integriteit van gegevens.

De kwaliteit van de gegevens die gebruikt worden om AI-systemen te trainen is essentieel om een kwalitatieve uitkomst te verzekeren. Daarbij is van groot belang dat de gegevens accuraat, voldoende breed en representatief zijn, maar ook dat ze geen sociaal geconstrueerde vertekeningen of onnauwkeurigheden (bias) bevatten. Ook in de ontwikkelingsfases en de gebruiksfase moet gewaakt worden over de kwaliteit van de gegevens door systematische tests en controles uit te voeren op zowel de gegevenssets als de processen en deze controles te documenteren.

Tot slot heeft deze ethische vereiste betrekking op toegang tot gegevens.

De bescherming van persoonsgegevens begint bij een degelijk toegangsbeleid tot persoonsgegevens. Door de toegang tot de eigenlijke persoonsgegevens te beperken tot die personen en die situaties waarin die toegang werkelijk nodig is, wordt de blootstelling hiervan beperkt en de risico’s op zowel een goedwillige als kwaadwillige datalekken aanzienlijk verminderd.

4

TRANSPARANTIE

Wat houdt dit principe in?

Een cruciaal onderdeel van het bereiken van een betrouwbare AI is transparantie. Transparantie heeft betrekking op verschillende elementen die relevant zijn voor een AI-systeem waaronder de gegevens, het systeem en de bedrijfsmodellen.

Deze vereiste van transparantie bestaat uit drie sub-componenten, namelijk (1) traceerbaarheid, (2) verklaarbaarheid en (3) open communicatie over de beperkingen van het AI-systeem.

Lees meer over de toepasselijke rechtsregels, aandachtspunten en nuttige tools.

5

Om betrouwbare AI te verwezenlijken moeten inclusie en diversiteit mogelijk worden gemaakt gedurende de hele levenscyclus van het AI-systeem. Er moet daarbij gedurende het hele proces met alle betrokken belanghebbenden rekening worden gehouden. Er moet ook worden gezorgd voor gelijke toegang via inclusieve ontwerpprocessen, alsook voor gelijke behandeling. Deze vereiste is nauw verbonden met het beginsel van rechtvaardigheid.

Deze vereiste houdt rekening met drie sub-componenten: (1) voorkomen van onrechtvaardige vertekeningen, (2) verzekeren van toegankelijkheid en universeel ontwerp en (3) zorgen voor participatie van belanghebbenden.

Lees meer over de toepasselijke rechtsregels, aandachtspunten en nuttige tools.

6

MAATSCHAPPELIJK EN MILIEUWELZIJN

Deze ethische vereiste vormt de uitdrukking van de ethische beginselen van schadepreventie en rechtvaardigheid. Deze vereiste houdt in dat bij de ontwikkeling, het ontwerp en gebruik van AI-systemen ook met andere belanghebbenden – de brede maatschappij, het milieu en andere wezens met gevoel – rekening wordt gehouden. Duurzaamheid en economische verantwoordelijkheid van AI-systemen moet worden aangemoedigd en onderzoek in dit veld moet worden gestimuleerd.

Dit ethisch vereiste heeft drie sub-componenten, namelijk (1) duurzaamheid en milieuvriendelijkheid, (2) sociale aspecten en (3) vrijwaring van democratie en samenleving.


Lees meer over de toepasselijke rechtsregels, aandachtspunten en nuttige tools.

7

VERANTWOORDING

Wat betekent de ethische vereiste?

De vereiste van verantwoording vormt een aanvulling op de bovenstaande vereisten en is nauw verbonden aan het beginsel van rechtvaardigheid. Op grond van deze vereiste moeten mechanismen worden ingesteld om de verantwoordelijkheid en verantwoording voor AI-systemen en de resultaten daarvan te garanderen, zowel voor als na de toepassing. De nodige maatregelen moeten dus worden genomen om verantwoordelijkheid te verzekeren en aan te moedigen bij het ontwikkelen of gebruik van AI-systemen. Deze vereiste impliceert dat de potentiele risico’s van AI-systemen op een transparante manier worden geïdentificeerd en gemitigeerd. Wanneer er sprake is van onrechtvaardige of nadelige gevolgen moeten toegankelijke verantwoordingsmechanismen bestaan die voorzien in een adequate verhaalsmogelijkheid. Het komt er dus eigenlijk op neer om te zorgen dat iemand verantwoordelijk kan worden gesteld indien AI-systemen schade veroorzaken en dat er een adequate schadeloosstelling wordt voorzien.

De ethische vereiste bestaat uit twee sub-componenten (1) controleerbaarheid en (2) risicobeheersing.

Controleerbaarheid houdt in dat het mogelijk wordt gemaakt om de algoritmen, gegevens en ontwerpprocessen te controleren. Dat betekent niet noodzakelijkerwijs dat informatie over bedrijfsmodellen en intellectuele eigendom in verband met het AI-systeem altijd openbaar beschikbaar moet zijn. Evaluatie door interne en externe actoren en de beschikbaarheid van dergelijke evaluatieverslagen kunnen bijdragen aan de betrouwbaarheid van de technologie. Bij toepassingen die een invloed hebben op grondrechten, met inbegrip van veiligheidskritieke toepassingen, moeten AI-systemen onafhankelijk kunnen worden gecontroleerd.

Risicobeheersing impliceert dat het vermogen om verslag te doen van handelingen of beslissingen die bijdragen aan een bepaald resultaat van het systeem, alsook het vermogen om op de gevolgen van een dergelijk resultaat te reageren, moet worden gewaarborgd. De vaststelling, beoordeling, verslaglegging en minimalisering van de potentiële negatieve effecten van AI-systemen is in het bijzonder cruciaal voor degenen die er (in)direct de gevolgen van ondervinden. Er moet gedegen bescherming beschikbaar zijn voor klokkenluiders, ngo's, vakverenigingen of andere entiteiten wanneer zij melding maken van legitieme zorgen over een op AI gebaseerd systeem. Wanneer zich een negatief effect voordoet, moeten toegankelijke mechanismen bestaan ter waarborging van geschikte beroepsmogelijkheden.

8

Evaluatie

Evaluatie

Voor elke ethische vereiste werden al een aantal tekortkomingen geïdentificeerd en een aantal aanbevelingen gefromuleerd. In dit deel besluiten we dan ook met een korte evaluatie over de relatie tussen de ethische richtlijnen en het wetgevende kader. We gaan na waar er lacunes zitten met betrekking tot de ‘vertaling’ van ethische vereisten in het wetgevende kader. Kortom, we geven een overzicht van waar er voor beleidsmakers nog werk aan de winkel is en rond welke vereisten verder kan worden nagedacht. Een ding wordt meteen duidelijk: wie de ethische vereisten wil linken aan het wetgevende kader moet een heel brede kennis hebben van zo goed als alle rechtsdomeinen. In tijden van toenemende specialisatie, lijkt een all round juridische kennis dus zeker een voordeel te bieden met betrekking tot de ontwikkeling van betrouwbare AI-systemen. Bovendien vergen deze vereisten ook een soort van reflex en mentaliteit die niet steeds te vertalen valt in wetgeving (bv. milieu, maatschappelijk, duurzaamheid).

  • Vereiste 1 (menselijke controle en toezicht)

Deze ethische vereiste weerklinkt reeds in vele en verscheidene wettelijke vereisten en het is daarom voornamelijk een kwestie van bestaande regels te verduidelijken en met elkaar in verband te brengen. Zo is huidige regelgeving nog niet voorzien op systemen die kunnen ‘leren’ of door de ontwerper/gebruiker onvoorziene handelingen kunnen stellen. Het is daarom aan te raden om (i) eventueel relevante wettelijke vereisten of technische standaarden aan te passen/aan te vullen zodat ze met dit autonome karakter van AI-systemen rekening kunnen houden en (ii) na te kijken in welke mate het toepassingsgebied van bepaalde wetgeving zou moeten worden aangepast. Anderzijds betreft dit vereiste juridisch minder aflijnbare onderwerpen als ‘afhankelijkheid’ en ‘aanhankelijkheid’ die (nog) geen weerklank vinden in het huidige recht. Vraag is hier of, en in welke mate, de (Europese of Belgische) wetgever kan of moet optreden om dergelijke concepten in wettelijke vereisten om te zetten en dit niet alleen voor AI-systemen, maar ook voor andere producten.

  • Vereiste 2 (technische robuustheid en veiligheid)

Op het vlak van technische robuustheid en veiligheid bestaan er al meerdere uitgewerkte juridische kaders die verplichten om een adequate beveiliging te voorzien. De digitalisering – en bij uitstek het toenemend gebruik van AI-systemen – stellen deze regels op meerdere vlakken op de proef. Veel bestaande regelgeving is gericht op lichamelijke producten (bv. productveiligheid en productaansprakelijkheid). Het cyberveiligheidsregime is vooral gericht op het verhinderen van aanvallen door hackers. Bijkomend interdisciplinaire samenwerking lijkt dan ook nodig om na te gaan of en hoe deze wetgeving en/of regulering moet worden verfijnd in een AI-context.

  • Vereiste 3 (privacy en databeheer)

Op het vlak van privacy en databeheer bestaat er al een uitgewerkt wetgevend kader vanuit het gegevensbeschermingsrecht. Niettemin blijkt de effectieve en nuttige toepassing hiervan vaak tot problemen te leiden en is het moeilijk om in de praktijk tot een werkbare privacy-cultuur te komen. Dit kan vermoedelijk worden opgelost door een betere bewustmaking en een duidelijker toelichting van de impact en toepassing van het gegevensbeschermingsrecht in AI-context. Ook een betere handhaving lijkt daarvoor onvermijdelijk. Problematisch is dat enkel verwerkers en verwerkingsverantwoordelijken onderworpen zijn aan de AVG en de ontwikkelaars en aanbieders strikt gezien niet gehouden zijn om hun (AI-)producten te laten voldoen aan bijv. de vereisten omtrent gegevensbescherming door ontwerp en standaardinstellingen. Regulerend initiatief hieromtrent kan maar nuttig zijn indien dat minstens op EU-niveau gebeurt.

  • Vereiste 4 (transparantie)

Op het vlak van transparantie en informatieverplichtingen bestaat al heel wat regelgeving, zeker ten aanzien van consumenten. Bijkomende afzonderlijke wetgeving lijkt dus niet nodig, al kan de bestaande wetgeving (in de toekomst) op sommige vlakken licht worden aangepast en/of verduidelijkt. Met enkele kleine toevoegingen specifiek gericht op AI-systemen (bv. rond invoerdata en de werking van AI-systemen) kan al heel wat worden bereikt op vlak van conformiteit met de ALTAI lijst. Een alternatief is om op basis van die wetgeving bijkomende richtlijnen aan te nemen specifiek voor AI-systemen (cf. ‘AI bijsluiter’).

  • Vereiste 5 (diversiteit, discriminatie en rechtvaardigheid)

Op het gebied van non-discriminatie is er al een omvattend kader. Toch lijkt het er op dat mogelijke nieuwe vormen van discriminatie niet onder de bestaande wetgeving zouden vallen. Daarom moet nagegaan worden of dit door een aanvulling op de bestaande wetgeving kan opgelost worden. Participatie van belanghebbenden in een AI-context is daarentegen nog niet voorzien in specifieke wetgeving. Een voorbeeld hiervan is wel al te vinden in de context van de AVG. Voor AI-systemen dient onderzocht te worden hoe een dergelijke regelgeving er uit zou kunnen zien.

  • Vereiste 6 (maatschappelijk en milieubewustzijn)

Inzake milieubewustzijn is er al een omvangrijk lappendeken aan juridische kaders die zich toespitsen op specifieke risico’s die kunnen worden veroorzaakt. Er zijn ook normen om de ontwikkeling van producten duurzamer te maken. Deze zijn vooral gericht op hardware. Het is nuttig om na te gaan of dergelijke vereisten ook zouden moeten gelden voor de ontwikkeling van software. Uit deze vereiste volgt ook dat de betrokken actoren voldoende moeten worden ingelicht over de impact op het milieu en de maatschappij bij het ontwikkelen en gebruik van AI-systemen. Ook wat betreft de impact van AI-systemen op democratische waarden lijkt het vooral een kwestie van bewustzijn. Inzake arbeid en sociale zaken is het noodzakelijk dat de bevolking met AI-systemen leert omgaan zonder daarbij evenwel te grote (administratieve) kosten op bedrijven te leggen. Er zijn reeds juridische mechanismen voorzien voor overleg en het verstrekken van informatie aan werknemers. Toch kan opnieuw meer aandacht worden gegeven aan specifieke opleidingsprogramma’s, en zeker aan het ontwikkelen en behouden van digitale vaardigheden om met AI-systemen om te gaan. Het voorzien van verdere beroepsopleidingen is dan ook cruciaal.

  • Vereiste 7 (verantwoording)

Voor deze vereiste werden reeds een aantal aanknopingspunten gevonden in het bestaande recht. Indien schade veroorzaakt wordt door AI-systemen zijn er een aantal mogelijkheden voor slachtoffers om vergoeding te krijgen. Toch zijn bijkomende verfijningen aan het wetgevende kader nodig, bijvoorbeeld rond bepaalde juridische concepten (bv. kwalificatie software) of procedurele aspecten (bv. bewijslast slachtoffers).

Totstandkoming gids – Deze gids kwam tot stand door middel van overleg met en input door belanghebbenden en met steun van het Vlaams Departement Economie, Wetenschap & Innovatie (EWI). Na intern overleg werd een algemeen overzicht van de ethische vereisten opgesteld. Dit werd aan de belanghebbenden bezorgd voor feedback. Onderzoekers aan het KU Leuven Centre for IT & IP Law (CiTiP) zijn verantwoordelijk voor coördinatie van deze gids. De betrokken stakeholders en het onderzoeksluik van het Vlaams AI-plan kregen ook de mogelijkheid om feedback te geven op een draft versie van deze gids. Bijkomende feedback, aanvullingen, vragen en input op/over deze gids kan te alle tijden aan hun worden overgemaakt.

Over het KDM – Het Kenniscentrum Data & Maatschappij is een samenwerking tussen drie universitaire onderzoeksgroepen: imec-SMIT-VUB, KU Leuven CiTiP en imec-MICT-UGent. Het maakt deel uit van het Vlaams Beleidsplan Artificiële Intelligentie en krijgt steun van de Vlaamse overheid (EWI). Het KDM is de centrale hub voor de juridische, maatschappelijke en ethische aspecten van data-gedreven applicaties en AI-toepassingen. Het KDM wenst bij te dragen aan het debat en het creëren van een maatschappelijk draagvlak voor AI en data-gedreven toepassingen. De door het KDM verschafte informatie, zoals deze gids, is algemeen en kan niet beschouwd worden als individueel juridisch advies. Ze kan niet worden gebruikt ter vervanging van advies door een juridisch expert. Hoewel het KDM ernaar streeft om onze documenten correct en accuraat op te stellen, is het mogelijk dat de daarin vervatte positie niet toepasbaar is op uw specifieke situatie, niet volledig, juist of actueel is, of niet overeenkomt met de positie die een rechtbank of toezichthoudende autoriteit zou kunnen innemen. Het KDM draagt dan ook geen enkele verantwoordelijkheid voor de naleving van de toepasselijke wettelijke voorschriften door een organisatie.