zomer

Gastblog: Artificiële intelligentie heeft dringend een bijsluiter nodig

15.07.2020

Verschillende grote technologiebedrijven kondigen aan om niet langer software voor gezichtsherkenning te leveren aan de Amerikaanse politie. Mieke De Ketelaere, programmadirecteur AI bij imec, pleit voor een breder regelgevend kader rond het gebruik van artificiële intelligentie.

Eind negentiende eeuw dook plots het gemotoriseerd rijverkeer op in ons straatbeeld. In ‘De blijde intrede van de automobiel in België 1895-1940’ schetste historicus Donald Weber hoe dit nieuwe fenomeen enerzijds een steunpilaar voor nationale welvaart werd, maar anderzijds een groot maatschappelijk probleem met zich meebracht. De snelheidsobsessie van de eerste chauffeurs en de toenemende ongevallen veroorzaakten een sfeer van verontwaardiging. Een eeuw lang werd stap voor stap orde in die chaos gebracht: automobilisten moesten rechts rijden, de wegen werden aangepast, het rijbewijs werd ingevoerd, enzovoort.

In de eenentwintigste eeuw doet artificiële intelligentie zijn blijde intrede. De opkomst van dit fenomeen is misschien wat minder zichtbaar, maar de maatschappelijke uitdagingen zijn er niet minder om. Ook aan artificiële intelligentie zijn gevaren verbonden als we de technologie op een verkeerde manier inzetten.

“Net zoals het honderd jaar geleden een slecht idee zou geweest zijn om de auto te verbieden, zou een algemeen verbod op beeld-of gezichtsherkenning nu geen goed idee zijn.”
Mieke De Ketelaere
Programmadirecteur AI bij imec

Het US National Institute of Standards and Technology (NIST) onderzocht vorig jaar 189 algoritmen voor gezichtsherkenning. Die bleken systematisch een raciale bias te vertonen in het aantal vals negatieven. Dat betekent dat AI-systemen slechter zijn in het herkennen van zwarte mensen, wat vooral tot ongemakken leidt (bijvoorbeeld omdat je een tweede poging nodig hebt om je smartphone te ontgrendelen). Sommige software vertoonde bovendien een bias in het aantal vals positieven: bij zwarte mensen werd vaker de verkeerde persoon herkend. Dat kan meer ingrijpende gevolgen hebben, zoals onterechte arrestaties.

Onder druk van de protesten die ontstaan zijn na de dood van George Floyd hebben de Amerikaanse techreuzen aangekondigd om tijdelijk geen gezichtsherkenningssoftware meer aan de politie te verkopen (Amazon en Microsoft) of om de ontwikkeling ervan volledig stop te zetten (IBM). De technologie blijft wel beschikbaar via gezichtsherkenningsfirma’s zoals het omstreden Clearview AI. Begin dit jaar bleek uit een gelekt klantenbestand van Clearview AI dat ook lokale politiekorpsen in ons land interesse tonen in gezichtsherkenning. De Europese Unie overwoog een verbod van vijf jaar in te voeren op het gebruik van de technologie, maar dat plan lijkt nu van tafel.

Net zoals het honderd jaar geleden een slecht idee zou geweest zijn om de auto te verbieden, zou een algemeen verbod op beeld-of gezichtsherkenning nu geen goed idee zijn. Wel hebben we meer bewustwording en regels nodig om een ethisch gebruik van AI mogelijk te maken. Dat is een gedeelde verantwoordelijkheid van ontwikkelaars, gebruikers en beleidsmakers.

Ontwikkelaars moeten in de eerste plaats transparant zijn, door duidelijk aan te geven met welke datasets ze hun AI-systemen trainen, en wat de mogelijke gevaren daarvan zijn. Als gezichtsherkenning vaker fouten maakt bij donkere huidskleur, dan is een mogelijke verklaring dat er veel meer foto’s van witte gezichten gebruikt werden om het algoritme te trainen. Het is dus belangrijk dat ontwikkelaars hun datasets zo veel mogelijk controleren op bias, maar dat volstaat niet.

“AI-systemen geven je steeds een antwoord met een bepaalde waarschijnlijkheid. Dat antwoord mag nooit rechtstreeks het lot van een mens bepalen, het kan hoogstens dienen als advies.”

Een bias die verdoken zit in de data is niet altijd even zichtbaar. Onschuldige input zoals een e-mailadres kan iets zeggen over de leeftijd van een sollicitant - denk maar aan scarlet.be versus gmail.com. Het is ook mogelijk dat de bias niet afkomstig is van de data, maar door het algoritme zelf wordt opgewekt. Ontwikkelaars weten ook niet altijd waar hun algoritme uiteindelijk zal terechtkomen. Een toepassing die goed werkt in de ene context, kan blunderen als ze in een andere context wordt ingezet of als die context te weinig gekend is door de ontwikkelaars. Als een buitenlandse data scientist een jobmatching-algoritme moet ontwikkelen voor een Belgisch bedrijf, zal die de gevoeligheden tussen afkomst van Schaarbeek of Brasschaat niet begrijpen. Bovendien kan de context ook veranderen. Neem bijvoorbeeld een adressenlijst van Het Eilandje in Antwerpen. Die zal sinds de opwaardering een andere bias bevatten dan toen het nog een verloederde buurt was - terwijl het over dezelfde dataset gaat.

Het bepalen van wat eerlijk is, mag dus nooit volledig in handen van de ontwikkelaar liggen. Er rust ook een verantwoordelijkheid op de schouders van bedrijven en organisaties die gebruik maken van AI-systemen. Er worden verschillende anti-bias-technieken ontwikkeld, maar bedrijven zien daarin amper nog de bomen door het bos. Daarom zijn de VUB en imec een project (DANDA) opgestart om bedrijven stap voor stap te helpen om artificiële intelligentie op een ethische manier in te zetten. Wie met een auto rijdt, moet zich bewust zijn van de gevaren op de weg en van zijn verantwoordelijkheid. Hetzelfde geldt voor wie AI-systemen gebruikt.

Tot slot ligt er ook een verantwoordelijkheid bij beleidsmakers: er zijn ‘verkeersregels’ en ‘controles’ nodig. Als Europa zich wil onderscheiden van de Verenigde Staten en China door ethische AI als competitieve troef uit te spelen, moet het dringend veel duidelijker worden over wat het precies van bedrijven verwacht. AI-systemen geven je steeds een antwoord met een bepaalde waarschijnlijkheid. Dat antwoord mag nooit rechtstreeks het lot van een mens bepalen, het kan hoogstens dienen als advies. In plaats van te wachten tot er slachtoffers vallen, moeten we proactief een regelgevend kader vastleggen.

Bio

Geertrui Mieke De Ketelaere is programmadirecteur AI bij imec. Ze heeft een master in burgerlijke en industriële techniek en specialiseerde zich tijdens haar studie in robotica en artificiële intelligentie. De afgelopen 25 jaar heeft ze voor verschillende multinationals gewerkt aan alle aspecten van data en analyse (IBM, Microsoft, SAP, SAS, enz.). Bij imec is Mieke De Ketelaere verantwoordelijk voor de ontwikkeling van de AI-strategie en uitrol. Als consultant is ze gespecialiseerd in het definiëren van het AI businessmodellen, van potentiële waarde tot vooraf gedefinieerde risico's. Met haar kennis over de nieuwe digitale datastromen en AI-technologieën is Mieke De Ketelaere een veelgevraagde gastsprekers over digitalisering. In haar presentaties legt Mieke de focus op het demystificeren van de hype rond AI en behandelt ze niet-technische onderwerpen zoals data privacy. In 2018 werd ze genomineerd voor 'ICT-vrouw van het jaar' in België.

Contact: