zomer

Zomerblog: Voor wie maken we eigenlijk AI?

22.07.2021

Op deze Zomerblog! heeft u ongetwijfeld al gelezen over artificiële intelligentie (AI). Van je zomervakantie (al dan niet) inplannen met AI tot kunstenaars die nieuwe vormen van kunst creëren met AI. Maar jammer genoeg werkt AI niet altijd even goed.

Mieke De Ketelaere schrijft in haar Zomerblog! post bijvoorbeeld over hoe gezichtsherkenningssoftware van politiediensten minder goed werkt voor mensen met een donkere huidskleur, met mogelijk kwalijke gevolgen, zoals onterechte arrestatie. Maar, zo pleit Mieke De Ketelaere, laten we AI niet simpelweg verbieden vanwege dergelijke problemen. Laten we vooral bedachtzaam AI ontwikkelen en zo – zoals bij elke nieuwe technologie – de pijnpunten wegwerken. Ze legt daarbij de verantwoordelijkheid bij ontwikkelaars, bedrijven/organisaties en beleidsmakers.

Ik sluit mij graag aan bij het pleidooi van Mieke De Ketelaere. AI kan enorme voordelen opleveren voor de maatschappij. De technologie zonder meer verbieden zou jammer zijn, wél moeten we bedachtzaam te werk gaan.

Om meer bedachtzaam te werk gaan, stel ik in deze blogpost graag een extra focuspunt voor: de mensen die AI gebruiken. Meer specifiek: ons verplaatsen in het perspectief van de mensen die AI gebruiken en hun leefwereld beter leren kennen.

Zelfrijdende auto's en kangoeroes

In 2017 schreef The Guardian een artikel over hoe Volvo's zelfrijdende auto's faalden om kangoeroes te herkennen tijdens tests op Australische wegen. Volvo – diens hoofdkantoor in Zweden ligt – ontwikkelde de technologie initieel in een lokale setting. Als gevolg kon de technologie dieren uit Zweden herkennen (zoals elanden), maar dus niet meteen dieren in andere omgevingen (zoals kangoeroes). Deze anekdote over Volvo illustreert een groot probleem binnen het AI veld: het probleem van onbekenden.

Gewoonlijk leert AI software dingen herkennen door enorm veel voorbeelden te bekijken. Als we een AI bijvoorbeeld katten visueel willen leren herkennen, dan tonen we de software duizenden al dan niet miljoenen afbeeldingen van katten. Nadien is de software – hopelijk toch - capabel om afbeeldingen te herkennen van katten die deze nog nooit eerder heeft gezien. Zo zagen de zelfrijdende auto's van Volvo waarschijnlijk veel voorbeelden van Zweedse dieren, maar minder of geen van kangoeroes.

Het perspectief van de gebruikers

Hoewel we kunnen stellen dat de software van Volvo simpelweg technisch nog niet helemaal op punt stond, bekijk ik het ook graag vanuit een menselijk perspectief. Wanneer je een AI ontwikkelaar in Zweden bent, denk je niet meteen aan alle dieren die de weg over steken in Australië. Sterker, misschien heb je sommige Australische dieren nog nooit eerder gezien. Dan kun je moeilijk verwachten dat een AI deze dieren wel leert kennen.

Maar hoe besefte Volvo uiteindelijk dat hun software niet adequaat reageerde op kangoeroes? De kangoeroes kwamen natuurlijk pas tevoorschijn toen de ontwikkelaars hun lokale omgeving verlieten en de auto’s testten op Australische wegen. Met andere woorden: het was pas toen de ontwikkelaars zich in het perspectief van mogelijke gebruikers verplaatsten (in dit geval Australische weggebruikers) dat de fout naar boven kwam. Je verplaatsen in het perspectief van mogelijke gebruikers is dus een cruciale voorwaarde om bedachtzame AI te ontwikkelen.

Het lange staartje van AI

Zich verplaatsen in het perspectief van gebruikers is natuurlijk makkelijker gezegd dan gedaan. Dat zit hem vooral in het verschil tussen traditionele softwareapplicaties en AI software. Traditionele applicaties beschikken over meer voorspelbare contexten. Neem bijvoorbeeld de applicatie Microsoft Word. Je typt een woord via een toetsenbord en vervolgens verschijnt deze op het computerscherm. Een kangoeroe stoort je daar (meestal) niet bij, zélfs in Australië niet.

Bij AI software ligt dat anders omdat daar contextuele elementen de resultaten van de software sterk beïnvloeden. Een bekend voorbeeld, om even terug te komen op zelfrijdende auto's, zijn de weersomstandigheden. Een zelfrijdende auto rijdt misschien perfect zelfstandig bij zonnig weer, maar faalt daarin vanaf het moment dat er regen valt. Wij mensen kunnen dat verschil tussen zon en regen makkelijk interpreteren, voor computers ligt dat anders. En zo verwarren duizend en één contextuele elementen een goed werkend AI, met alle gevolgen van dien.

Het probleem dat contextuele elementen de resultaten van AI systemen beïnvloeden, is niet nieuw. Het heeft zelfs een naam: The Long Tail. AI ontwikkelaars geven hun software misschien enorm veel voorbeelden om mee te 'oefenen', maar door de complexiteit van de wereld duiken er altijd wel onvoorziene elementen op. De software werkt dan bijvoorbeeld in 95% procent van de gevallen heel goed, maar niet in de laatste 5% van de gevallen (het lange staartje). Jammer genoeg kan die 5% net zo goed desastreuze gevolgen hebben, zoals een botsing met een kangoeroe.

Testen of AI werkt

Enerzijds bestaan er technische oplossingen om het probleem van The Long Tail aan te pakken. AI ontwikkelaars kijken bijvoorbeeld of alle voorbeelden statistisch goed vertegenwoordigd zijn. Zo zijn er misschien 1000 voorbeelden van wanneer de zon schijnt en maar één van wanneer het regent. Dan weten ontwikkelaars dat hun AI waarschijnlijk niet goed zal functioneren tijdens regen. In de praktijk zijn die statistische methoden wel wat complexer natuurlijk, maar dat is de simpele versie.

Natuurlijk willen ontwikkelaars niet enkel weten of hun systeem goed gebouwd is, maar ook of het daadwerkelijk werkt (en blijft werken) in productie. 'The proof of the pudding' is namelijk 'in the eating'. Daarom testen ontwikkelaars hoe het systeem reageert in de echte wereld. In het geval van Volvo: met een auto daadwerkelijk over de Australische wegen rijden.

En net dat testen in de echte wereld kan beter en nauwkeuriger, specifiek door ons meer bewust te verplaatsen in het perspectief van mogelijke gebruikers. Rijden in een stad of in de Australische Outback zorgt bijvoorbeeld voor twee geheel verschillende ervaringen. In het eerste geval kom je waarschijnlijk minder snel een kangoeroe tegen dan in het tweede geval. Of wat als je tests uitvoert tijdens de schooluren, dan zijn er waarschijnlijk geen kinderen op straat. Ben je dan wel zeker dat je zelfrijdende auto adequaat getest hebt met kinderen in de omgeving?

Kortom, om tests uit te voeren die voor zekerheid zorgen, moeten ontwikkelaars hun gebruikers en diens leefwereld beter leren begrijpen. Dat is een extra stap in het vaak technische en legislatieve verhaal rond AI, maar wel een noodzakelijke. Met de huidige technieken kan AI nooit voor elke gebruiker en context even goed werken. Door het perspectief van gebruikers in te nemen, kunnen AI ontwikkelaars tenminste wel de limieten van hun software begrijpen. En dat is heel belangrijk wanneer je wilt vermijden dat AI de verkeerde keuzes neemt.

Recognizing Food From Around The World

Wie meer interesse heeft in het verhaal van AI testen met gebruikers, kan altijd eens mijn eigen, open project Recognizing Food From Around The World bekijken. In dit project probeer ik met één persoon uit elk land in de wereld (digitaal) een maaltijd te delen. De gesprekken tijdens deze maaltijden leren mij bij over het eten in elk land. Ik vraag telkens ook of de personen enkele foto’s willen maken van hun maaltijd voor in theeverywheredataset.com te plaatsen, een open dataset die ik beheer.

Deze foto’s test ik vervolgens op vier populaire beeldherkenningssystemen, wat soms interessante resultaten geeft. Zo gaf Microsoft Vision bijvoorbeeld 17 verschillende beschrijvingen van worst voor loempia's, maar geen enkele beschrijving van loempia’s. Amazon Rekognition had dan weer vaak de neiging om verschillende soorten eten (zoals rijst en soep) te herkennen als ijs. In de eerste instantie klinkt dat grappig, maar natuurlijk kan dat wel serieuze gevolgen hebben. Denk bijvoorbeeld aan mensen die omwille van hun religie bepaalde soorten vlees niet eten, wanneer de beeldherkenningssoftware verkeerdelijk een stuk vlees verkeerdelijk beschrijft als geen vlees. Het is belangrijk dat we dergelijke situaties vermijden.

Contacteer mij gerust als je interesse hebt in AI testen met gebruikers, over het project Recognizing Food From Around The World, of als u nog mensen kent in landen die momenteel nog niet vertegenwoordigd zijn in het project!

Auteur:

Auteur:

Niels Quinten

Onafhankelijk onderzoeker

LinkedIn

Twitter

Het Kenniscentrum is niet verantwoordelijk voor de inhoud van de blogposts die verschijnen in onze 'Zomer'-serie en zullen dan ook niet over de inhoud corresponderen. Bij vragen, opmerkingen of bedenkingen: contacteer de auteur(s)!


Image credits: