gids

Ethisch principe 4: transparantie

Met de praktische gids 'Ethische principes en (niet-)bestaande juridische regels voor AI' wil het Kenniscentrum Data en Maatschappij nagaan in welke mate de vragen in de ALTAI Beoordelingslijst al een vertaling vinden in het bestaande wetgevende kader en of er bepaalde relevante regels zijn die aansluiten bij de ethische vereisten.

Dit hoofdstuk behandelt het vierde ethisch principe: transparantie (transparency).

Betekenis principe

Een cruciaal onderdeel van het bereiken van een betrouwbare AI is transparantie. Transparantie heeft betrekking op verschillende elementen die relevant zijn voor een AI-systeem waaronder de gegevens, het systeem en de bedrijfsmodellen.

Deze vereiste van transparantie bestaat uit drie sub-componenten, namelijk (1) traceerbaarheid, (2) verklaarbaarheid en (3) open communicatie over de beperkingen van het AI-systeem.

Traceerbaarheid impliceert dat de gegevenssets en de processen waaruit de beslissing van het AI-systeem voortkomt, met inbegrip van die van de verzameling en indeling van gegevens alsook de gebruikte algoritmen, zo goed mogelijk moeten worden gedocumenteerd om ze traceerbaar te maken.

Verklaarbaarheid heeft te maken met het vermogen om zowel de technische processen van een AI-systeem als de daaraan gerelateerde menselijke beslissingen (bv. de toepassingsgebieden van een AI-systeem) te verklaren. Voor de technische verklaarbaarheid is het nodig dat de door een AI-systeem genomen beslissingen door mensen kunnen worden begrepen en traceerbaar zijn. Wanneer een beslissing door een AI-systeem significante gevolgen heeft voor het leven van mensen moet het steeds mogelijk zijn om te vragen naar een geschikte verklaring van het besluitvormingsproces van het systeem.

Open communicatie betekent dat AI-systemen zich tegenover gebruikers niet als mensen mogen voordoen. Mensen hebben het recht om te weten dat ze met een AI-systeem te maken hebben. Dat houdt in dat AI-systemen als zodanig herkenbaar moeten zijn. Daarnaast moet de optie worden geboden om menselijke interactie aan te gaan in plaats van interactie met een AI-systeem wanneer dit nodig is om naleving van de grondrechten te waarborgen. Bovendien moeten de capaciteiten en beperkingen van het AI-systeem worden aangegeven, zowel ten aanzien van beroepsbeoefenaars als eindgebruikers. Daarbij wordt dus rekening gehouden met de specifieke situatie.

Rechtsregels

Traceerbaarheid

Mechanismen moeten worden aangenomen met betrekking tot de traceerbaarheid van het AI-systeem doorheen de hele levensduur.

  • Werden maatregelen aangenomen die de kwaliteit van de invoergegevens voor het AI-systeem en de output van dergelijke systemen voortdurend te beoordelen?
  • Algemeen

Er zijn verschillende mogelijkheden die er inderdaad voor zorgen dat de kwaliteit van invoergegevens en de output voor AI-systemen voortdurend kunnen worden beoordeeld.

Contractuele afspraken tussen betrokken actoren lijken alvast aangewezen conform de toepasselijke beginselen van het verbintenissenrecht of bijzondere wetgeving. Ook de Wet van 4 april 2019 met betrekking tot misbruiken van economische afhankelijkheid, onrechtmatige bedingen en oneerlijke marktpraktijken tussen ondernemingen is van belang. Deze wet beoogt een betere bescherming van (kleinere) ondernemingen ten aanzien van grotere spelers.

Ook andere maatregelen worden door AI HLEG voorgesteld die op termijn kunnen worden geïmplementeerd zoals bijvoorbeeld standaard geautomatiseerde kwaliteitsbeoordeling van de gegevensinvoer. Dit kan door middel van het kwantificeren van ontbrekende waarden of hiaten in de gegevens; het opsporen van wanneer gegevens onvoldoende zijn voor een bepaalde taak; of het nagaan van wanneer de ingevoerde gegevens foutief, onjuist, onnauwkeurig of niet in het juiste formaat zijn.

Wat betreft de kwaliteit van de outputgegevens worden eveneens een aantal maatregelen/opties voorgesteld. Deze maatregelen kunnen bv. de vorm aannemen van een standaard geautomatiseerde kwaliteitsbeoordeling van de AI-output: de voorspellingsscores zijn bv. binnen het verwachte bereik; anomaliedetectie in de uitvoer en het opnieuw toewijzen van invoergegevens die leiden tot de gedetecteerde anomalie.

  • Gegevensbescherming

De AVG bevat een aantal relevante bepalingen. Persoonsgegevens moeten worden verwerkt op een rechtmatige, behoorlijke en transparante wijze. Ze moeten ook juist zijn en worden geactualiseerd indien nodig (art. 5.1.). De betrokkenen heeft een recht van inzage (art. 15) en het recht om van de verwerkingsverantwoordelijke onverwijld rectificatie van betreffende onjuiste persoonsgegevens te verkrijgen (art. 16). Er is ook een recht op beperking van de verwerking indien bijvoorbeeld de juistheid van de persoonsgegevens wordt betwist (art. 18). De betrokkene heeft onder de bepaalde voorwaarden ook het recht om vanwege met zijn specifieke situatie verband houdende redenen bezwaar te maken tegen de verwerking van hem betreffende persoonsgegevens (art. 21) en niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder profilering (art. 22).

  • Consumentenbescherming

Richtlijn 1999/44 (omgezet in België door de wet van 1 september 2004 en opgenomen in art. 1649bis-1649octies BW), Richtlijn Digitale Inhoud en de Richtlijn over overeenkomsten voor de verkoop van goederen kunnen mogelijks ook interessant zijn omdat een gebrekkige kwaliteit van invoergegevens eventueel ook kan zorgen voor een gebrek aan objectieve of subjectieve conformiteit van goederen, diensten of digital inhoud, waarvoor de verkoper aansprakelijk kan worden gesteld.

Producenten zijn gehouden uitsluitend veilige producten op de markt te brengen en veilige diensten aan te bieden (art. IX.2. WER). Indien de veiligheid van een product dat AI incorporeert samenhangt met de input of output van gegevens, kan deze bepaling relevant zijn. Sectorale wetgeving legt aan producenten soms ook op dat product/dienst veilig moet zijn wanneer het op de markt komt. Dit kan eventueel samenhangen met de kwaliteit van de invoergegevens ervan. Denk aan medische hulpmiddelen en machines.

  • Normen

Informatie kan in de toekomst mogelijks ook worden gevonden in ISO normen rond AI. Zie ook de bespreking in Ethisch Vereiste 2: Technische robuustheid en veiligheid.

  • Kan worden nagaan welke gegevens door het AI-systeem werden gebruikt om een bepaalde beslissing(en) of aanbeveling(en) te nemen?
  • Kan worden nagaan welk AI-model of welke regels hebben geleid tot de beslissing(en) of aanbeveling(en) van het AI-systeem?
  • Algemeen

De eerder besproken contractuele afspraken en de Wet van 4 april 2019 zijn relevant.

  • Gegevensbescherming

De AVG speelt ook hier een rol. De verwerkingsverantwoordelijke moet passende maatregelen nemen opdat de betrokkene de informatie en communicatie in verband met de verwerking van persoonsgegevens in een beknopte, transparante, begrijpelijke en gemakkelijk toegankelijke vorm en in duidelijke en eenvoudige taal ontvangt. Deze informatie heeft onder andere betrekking op het bestaan van geautomatiseerde besluitvorming, met inbegrip van profilering, en betreft ten minste in die gevallen, nuttige informatie over de onderliggende logica, alsmede het belang en de verwachte gevolgen van die verwerking voor de betrokkene (art. 12-14). De betrokkene ook recht van inzage onder andere met betrekking tot de betrokken categorieën van persoonsgegevens die worden verwerkt (art. 15).

  • Consumentenbescherming

Binnen het consumentenrecht zijn er ook een aantal bepalingen betreffende informatieplichten ten aanzien van de consument.

Op grond van Richtlijn 2011/83 over consumentenrechten geeft art. VI.45 WER aan welke informatie op duidelijke en begrijpelijke wijze aan de consument moet worden verstrekt. Het gaat daarbij onder andere over de voornaamste kenmerken van de goederen of diensten, de functionaliteit van digitale inhoud met inbegrip van toepasselijke technische beveiligingsvoorzieningen en de relevante interoperabiliteit ervan met hardware en software waarvan de handelaar op de hoogte is of redelijkerwijs kan worden verondersteld op de hoogte te zijn.

In dit verband kan ook worden verwezen naar bepalingen in de WER (art. VI.93-100) over oneerlijke en misleidende handelspraktijken volgens dewelke informatie die (bijvoorbeeld over de werking van het AI-systeem) verstrekt wordt correct moet zijn en niet misleidend. Deze regeling is gebaseerd op Richtlijn 2005/29 over oneerlijke handelspraktijken.

Richtlijn 2019/2161 tot modernisering EU consumentenrecht volgens dewelke consumenten duidelijk moeten worden geïnformeerd wanneer de prijs die zij te zien krijgen gepersonaliseerd is aan de hand van geautomatiseerde besluitvorming. Er is ook een bijkomende transparantieverplichtingen voor onlineplatformen met betrekking tot de weergave van zoekresultaten. De consument moet worden ingelicht over de parameters die gebruikt worden voor de rangschikking van resultaten.

  • Werden adequate logging procedures ingevoerd om de beslissing(en) of aanbeveling(en) van het AI-systeem vast te leggen.
  • Algemeen

De eerder besproken contractuele afspraken en de Wet van 4 april 2019 zijn relevant.

  • Gegevensbescherming

Volgens de AVG heeft de betrokkene het recht om uitsluitsel te verkrijgen over het al dan niet verwerken van hem betreffende persoonsgegevens en, wanneer dat het geval is, om inzage te verkrijgen van die persoonsgegevens en van de opgesomde informatie (art. 15). De verwerkingsverantwoordelijke moet ook passend passende technische en organisatorische maatregelen treffen om te waarborgen en te kunnen aantonen dat de verwerking in overeenstemming met de AVG wordt uitgevoerd (art. 24). Ook moet de verwerkingsverantwoordelijke de passende technische en organisatorische maatregelen nemen om aan de beginselen van gegevensbescherming door ontwerp en door standaardinstellingen te voldoen (art. 25). Elke (vertegenwoordiger van) de verwerkingsverantwoordelijke houdt bovendien ook een register van de verwerkingsactiviteiten die onder hun verantwoordelijkheid plaatsvinden (art. 30).

  • Sectorale wetgeving

Ook in sectorale wetgeving zijn bepalingen te vinden rond het opstellen, bijhouden en actualiseren van technische documentatie (bv. Verordening Medische Hulpmiddelen of Machinerichtlijn).

  • Aansprakelijkheid

Het invoeren van adequate logging procedures zal in de toekomst ook aan belang winnen binnen het aangepast wetgevende kader rond aansprakelijkheid. Een ‘log-verplichting’ zou in beginsel op producenten van AI-systemen (kunnen) rusten. Ze zou inhouden dat producenten hun AI-systemen uitrusten met de capaciteit om alle informatie op te slaan die gewoonlijk essentieel is om naderhand uit te maken of een aan de technologie verbonden risico zich heeft gemanifesteerd (logging by design).

Verklaarbaarheid

Het werd reeds gesteld dat verklaarbaarheid betrekking heeft op het vermogen om zowel de technische processen van een AI-systeem als de daaraan gerelateerde menselijke beslissingen te verklaren.

  • Werden de beslissingen van het AI-systeem aan de gebruikers uitgelegd?
  • Werd onderzocht of de gebruikers de beslissing(en) van het AI-systeem voortdurend begrijpen?
  • Algemeen

Dit is afhankelijk van de manier waarop de uitleg kan worden gedaan.

Als de ontwikkelaars direct in interactie kunnen gaan met de gebruikers van het AI-systeem, bijvoorbeeld door middel van het organiseren van workshops, kan de deze vraag/vereiste daar worden toegelicht. Als de ontwikkelaars echter niet rechtstreeks betrokken zijn met gebruikers moet de organisatie die bijvoorbeeld AI-systemen verspreid zorgen dat gebruikers het AI-systeem begrijpen en eventuele misverstanden/onduidelijkheden aan ontwikkelaars duidelijk maken.

  • Gegevensbescherming

Onder de AVG moet de verwerkingsverantwoordelijke passende maatregelen nemen opdat de betrokkene de informatie en communicatie in verband met de verwerking van persoonsgegevens in een beknopte, transparante, begrijpelijke en gemakkelijk toegankelijke vorm en in duidelijke en eenvoudige taal ontvangt (art. 12). Daarnaast zijn verwerkingsverantwoordelijken ook verplicht om te informeren omtrent het bestaan en gebruik van geautomatiseerde (individuele) besluitvorming en profilering, om nuttige informatie omtrent de onderliggende logica te geven en om te informeren omtrent het belang en de verwachte gevolgen van deze verwerking voor de betrokkene (artikel 13.2.(f), 14.2.(g), 15.1.(h)).

  • Productveiligheid

Producenten moeten binnen het bestek van hun activiteiten de gebruiker de informatie geven die hem in staat stelt zich een oordeel te vormen over de aan een product inherente risico's gedurende de normale of redelijkerwijs te verwachten gebruiksduur, indien deze risico's zonder passende waarschuwing niet onmiddellijk herkenbaar zijn, en zich tegen deze risico's te beschermen (art. IX.8 WER). Deze bepaling is nuttig voor producten die gebruik maken van AI, zoals autonome motorvoertuigen.

Ook sectorale wetgeving kan relevant zijn. Conform art. 5 van de Machinerichtlijn bijvoorbeeld moet de fabrikant alvorens een machine in de handel te brengen en/of in bedrijf te stellen de noodzakelijke informatie verstrekken, zoals de gebruiksaanwijzing.

Communicatie

De mogelijkheden en beperkingen van het AI-systeem moeten aan de gebruikers zijn gecommuniceerd op een wijze die past bij het gebruik. Dit omvat o.a. informatie over de nauwkeurigheid en beperkingen van het AI-systeem.

  • In het geval van interactieve AI-systemen (bijv. chatbots), werden gebruikers ingelicht dat ze met een AI-systeem werken in plaats van met een mens?
  • Elektronische handel

Richtlijn 2000/31 stelt standaardregels in de EU vast voor verschillende zaken die verband houden met elektronische handel. Ze bevat ook een aantal informatieplichten. Deze moeten op een duidelijke, begrijpelijke en ondubbelzinnige wijze worden verstrekt voor het plaatsen van een order. Een onderneming moet voorafgaand aan het aanbieden van deze dienst onder andere de verschillende technische stappen vermelden die nodig zijn om het contact te sluiten (art. XII.7 WER). Het feit dat een AI-systeem wordt ingezet bij de totstandkoming van een contract moet dus worden aangegeven door een onderneming, zodat de consument de eventuele risico’s van dergelijke systemen kan inschatten.

Zie voor meer informatie ook Ethisch Vereiste 1: Menselijke controle en menselijk toezicht

  • Modernisering consumentenrecht

Ook in Richtlijn 2019/2161 tot modernisering EU consumentenrecht zijn een aantal bepalingen openomen die relevant zijn. Consumenten moeten bijvoorbeeld duidelijk worden geïnformeerd wanneer de prijs die zij te zien krijgen aan de hand van geautomatiseerde besluitvorming is gepersonaliseerd, zodat zij in hun aankoopbesluit rekening kunnen houden met de potentiële risico’s.

  • Werden mechanismen ingesteld om gebruikers te informeren over het doel, de criteria en de beperkingen van de door het AI-systeem gegenereerde beslissing(en)?
  • Werden de voordelen van het AI-systeem aan de gebruikers gecommuniceerd?
  • Werden de technische beperkingen en potentiële risico’s van het AI-systeem gecommuniceerd aan gebruikers, zoals het niveau van de nauwkeurigheid en/of de foutenpercentages?
  • Werden aan de gebruikers passend trainingsmateriaal en disclaimers ter beschikking gesteld over hoe het AI-systeem adequaat en correct te gebruiken?
  • Consumentenbescherming

Richtlijn 2011/83 betreffende consumentenrechten voorziet in een verhoging van consumentenbescherming door harmonisatie van belangrijke aspecten van nationale wetgeving betreffende contracten tussen klanten en verkopers. De Richtlijn bevat o.a. informatieplichten. De Richtlijn geeft aan welke informatie op duidelijke en begrijpelijke wijze aan de consument moet worden verstrekt. Het gaat daarbij onder andere over de voornaamste kenmerken van de goederen of diensten, de functionaliteit van digitale inhoud met inbegrip van toepasselijke technische beveiligingsvoorzieningen en de relevante interoperabiliteit ervan met hardware en software waarvan de handelaar op de hoogte is of redelijkerwijs kan worden verondersteld op de hoogte te zijn (art. VI. 2, 1° en 8°, art. VI. 45, 1° en 18° en art. VI. 64, 1° en 17° WER). De informatieverplichtingen omtrent de functionaliteit van de digitale inhoud moeten consumenten bovendien ook in staat stellen om de risico’s van het gebruik van AI-systemen in aanmerking te nemen.

Ook de Richtlijn Digitale Inhoud en Richtlijn Consumentenkoop zijn relevant. Informatieplichten kunnen immers in overweging worden genomen bij het bepalen of een digitale dienst of inhoud of een goed met digitale elementen voldoet aan de contractueel toepasselijke subjectieve of objectieve conformiteitsvereisten (bv. functionaliteit, compatibiliteit en interoperabiliteit). Daarnaast moeten goederen en diensten met digitale inhoud ook geleverd worden met (installatie-)instructies. Ten slotte zijn er updateverplichtingen die als doel hebben om de blijvende conformiteit van digitale inhoud of diensten of van goederen met digitale elementen te waarborgen.

Zie voor meer informatie ook Ethisch Vereiste 1: Menselijke controle en menselijk toezicht

  • Gegevensbescherming

Volgens de AVG moet elke communicatie met een betrokkene in een beknopte, transparante, begrijpelijke en gemakkelijk toegankelijke vorm zijn, en in duidelijke en eenvoudige taal worden opgesteld (art. 12). De doeleinden van de verwerking evenals de wettelijke grondslag en de gerechtvaardigde belangen voor de verwerking moeten duidelijk zijn. Om een behoorlijke en transparante verwerking te waarborgen, kan daarbij ook het bestaan van geautomatiseerde besluitvorming met inbegrip van profilering worden verstrekt. Ook de nuttige informatie over de onderliggende logica, alsmede het belang en de verwachte gevolgen van die verwerking voor de betrokkene kunnen door de verwerkingsverantwoordelijke worden verstrekt (art. 13-14).

  • Productveiligheid

Producenten moeten binnen het bestek van hun activiteiten de gebruiker de informatie geven die hem in staat stelt om zich een oordeel te vormen over de aan een product inherente risico's gedurende de normale of redelijkerwijs te verwachten gebruiksduur, indien deze risico's zonder passende waarschuwing niet onmiddellijk herkenbaar zijn, en zich tegen deze risico's te beschermen (art. IX.8 WER).

  • Sectorale wetgeving

Conform de Machinerichtlijn moet de fabrikant alvorens een machine in de handel te brengen en/of in bedrijf te stellen de noodzakelijke informatie verstrekken, zoals gebruiksaanwijzing (art. 5). Conform de Verordening Medische Hulpmiddelen zien de fabrikanten erop toe dat zij bij het in de handel brengen of gebruik van hulpmiddelen dat deze overeenkomstig de toepasselijk vereisten zijn ontworpen en vervaardigd. Dit impliceert o.a. het verstrekken van de nodige informatieplichten zoals etikettering en gebruiksaanwijzingen (art. 10).

Aandachtspunten

Informatieplichten specifiek voor AI-systemen

Er is al heel wat wetgeving van toepassing op producten die gebruik maken van AI. Toch kan er een duidelijker kader worden gecreëerd via soft law of/en aanbevelingen specifiek gericht op informatieplichten voor AI-systemen zelf. Het wetgevende kader moet dus niet worden veranderd, maar kan als basis worden gebruikt om specifieke informatieplichten aan te nemen voor AI-systemen over o.a. (1) oorsprong en verwerking invoerdata, (2) de werking van het AI-systeem, (3) hoe het systeem tot stand is gekomen (4) wat de voordelen en risico’s zijn. Daarbij moet worden nagegaan wie de uiteindelijke gebruiker is en de nodige informatie- en transparantieplichten daarop afstemmen. De idee kan bijvoorbeeld zijn om een soort ‘AI bijsluiter’ te ontwerpen die afhankelijk van de eindgebruiker of -afnemer al dat niet uitgebreider kan of moet zijn. Er moet worden nagedacht over hoe een dergelijke bijsluiter eruit moet zien, wat erin moet staan, etc. In het algemeen kan ook worden nagedacht over legal design zodat de informatie ook verstaanbaar is voor leken (‘de gewone man’).

Documentatie voorzien voor (transparante) AI-systemen

Er moet steeds worden gezorgd dat de nodige documentatie over de werking, het besluitvormingsproces,… van AI-systemen wordt bewaard. Los van de bestaande regelgeving zou alle informatie gaande van het ontwerp, de ontwikkelingen en het gebruik van AI-systemen op één of andere manier moeten worden bewaard. Een mogelijkheid zou zijn om organisaties verder aan te moedigen om de effecten van AI-systemen op de samenleving in kaart te brengen en te evalueren, net zoals dit het geval is bij een GEB. In een dergelijke Artificial Intelligence Impact Assessment kunnen de risico's bij het gebruik van AI-technieken voor de gebruikers en organisaties worden geanalyseerd. Er kan ook worden nagedacht over het invoeren van een checklist voor de betrokken organisaties, bedrijven en actoren werkzaam in AI-sector om de transparantie van AI-systemen te verhogen (bv. identificatie van actoren en bepalen hoe zij verantwoordelijk zijn voor transparantie of het verschaffen van uitleg).

Kennisdeling en (multidisciplinaire) samenwerking

Het is van belang om het algemene publiek te blijven informeren over de realiteit en werking van AI. Loutere bewustmaking over het feit dat AI-systemen niet steeds transparant zijn (cf. black box) kan al helpen. Er moet dus worden gezorgd dat gebruikers (blijven) weten hoe het AI-systeem werkt, welke gegevens worden verwerkt,enz. Door samenwerking binnen het Vlaams AI-plan, samenwerking met Mediawijs en participatie in andere projecten (bv. Iedereen Datawijs) speelt het KDM hier al een rol en het moet dit blijven doen.

Ook bijkomende bewustwording rond transparantie van actoren die betrokken zijn bij het ontwerp en de ontwikkeling van AI-systemen is relevant o.a. door de publicatie van best practices met betrekking tot de gekende vulnerabiliteiten van AI-modellen en technische oplossingen om deze aan te pakken. Er moet ook blijvend worden gezorgd voor een formele interdisciplinaire samenwerking zoals reeds wordt gedaan binnen het Vlaamse AI-programma. Informatie-uitwisseling is cruciaal. De transparantie bij het ontwerpen van modellen voor machinaal leren kan ook worden bevorderd door de nadruk te blijven leggen op de noodzaak van een explainability-by-design benadering voor AI-systemen met een potentieel negatieve impact op fundamentele rechten van gebruikers.

Tools

Download de volledige gids: