Event

Verslag Data-Date #2: AI en rekrutering

29.04.2020

Hoe kan AI-technologie rekruteerders toelaten om beter te voldoen aan de verwachtingen van werkgevers en werknemers? Hoe vermijd je onbewuste vooroordelen (bias) in geautomatiseerde systemen voor de aanwerving van nieuwe werknemers? Kan rekruteren op basis van algoritmes een bijdrage leveren aan de huidige mismatch tussen vraag en aanbod op de jobmarkt?

Deze en andere vragen waren het onderwerp van onze tweede Data-Date, die (virtueel) plaatsvond op dinsdag 28 april. In deze reeks van evenementen nodigt het Kenniscentrum externe sprekers uit om inhoudelijk bij te dragen aan het debat rond Artificiële Intelligentie (AI). VDAB en Unia schoven mee aan de virtuele gesprekstafel.

Guido Van Humbeeck (directeur Architectuur & Innovatie van de dienst Informatie & Technologie, VDAB) presenteerde hoe de VDAB gebruik maakt van AI en hoe ze dat zo ethisch mogelijk probeert te doen. De aanpak van VDAB is pragmatisch: het technische team dat op de AI-systemen werkt is divers samengesteld, en een onafhankelijk ‘ethical board’ ziet toe op een ethisch en correct gebruik van AI binnen de organisatie.

Daarna ging Nele Roekens (juridisch medewerker Unia) dieper in op de opportuniteiten en valkuilen bij rekrutering en AI. Voornaamste conclusie: er is nood aan een juridisch kader om hierbij discriminatie te voorkomen en grenzen te bepalen.

Beide presentatoren sloten aan bij het panelgesprek, waaraan ook Laurens Naudts (onderzoeker, CiTiP - KU Leuven), Vincent Buekenhout (DPO, VDAB) en Rob Heyman (moderator en coördinator Kenniscentrum Data & Maatschappij) deelnamen. De panelleden gaven hun kritische bedenkingen op het gebruik van AI bij rekrutering, maar bekeken ook mogelijke pistes en opportuniteiten om AI daar op een ethisch verantwoorde manier bij in te zetten. Hieronder lichten we de belangrijkste bedenkingen en bevindingen kort toe.


Benieuwd naar de presentaties van de sprekers? Download onderaan de presentaties van Guido Van Humbeeck (VDAB) en van Nele Roekens (Unia).


Wat we onthouden uit het panelgesprek:

  • AI kan ondersteuning bieden bij rekrutering, maar kan en mag daarbij geen autonome beslissingen nemen. AI neemt zo geen jobs weg van rekruteerders, maar helpt hen bij de uitvoering van hun taken.
  • Aan de hand van datamining en -matching kan AI discriminatie bij rekrutering verminderen. Datamining en -matching laten namelijk toe processen te identificeren, te controleren of te evalueren, en aan te passen als nodig. Op die manier kan een structurele bias (vooringenomenheid of ongelijkheid) worden opgespoord - wat op individueel niveau bijna niet mogelijk is.
  • Bias in AI-systemen kan een gevolg van discriminatie in de samenleving zijn. Mensen denken namelijk zelf vaak in stereotypen, en deze weerspiegelen zich in de data waarmee AI-systemen worden getraind. Het is daarom belangrijk om bewust te zijn van deze stereotypen en vooroordelen zodat we deze kunnen detecteren en corrigeren binnen AI-systemen.
  • Of en op welke manier we de uitkomsten van AI-systemen corrigeren, is een kwestie van beleid. Zo bleek uit historische data bv. dat vrouwen vaker dan mannen op zoek gaan interimjobs. Of een AI-systeem dan net vaker of minder vaak interim-jobs moet voorstellen aan vrouwen, is niet een keuze van het AI-systeem zelf, maar van de visie die beleidsvoerders hebben op tewerkstelling.
  • Om een bias op te sporen, is een belangrijke rol weggelegd voor computerwetenschappers, maar ook juristen, bedrijfsleiders, etc. Zij moeten samenwerken en systemen ethisch maken. Er is geen pasklaar antwoord op de vraag hoe je een systeem ethisch maakt en hoe je ethische principes operationaliseert. Een interdisciplinaire denkoefening en dialoog is nodig en zal in de toekomst alleen maar belangrijker worden.
  • Bij de ontwikkeling van zelflerende systemen moeten we eerlijkheidscriteria, zoals representativiteit en accuraatheid, opstellen en hanteren. Momenteel gebeurt dit nog niet voldoende. Het kan een belangrijk element zijn om tot ethisch verantwoorde AI-systemen te komen.
  • Laurens Naudts waarschuwt hierbij voor onze eigen ethische bias met betrekking tot nieuwe technologie: we kijken naar vormen van discriminatie die we al kennen. Dat maakt ons mogelijk blind voor andere vormen van discriminatie die we nog niet kennen.
  • Er een duidelijk wetgevend kader nodig om deze eerlijkheidscriteria vast te leggen. Dit wetgevend kader moet een leidraad worden om met elkaar in dialoog te gaan. Eerlijkheidscriteria zullen soms namelijk niet compatibel zijn met elkaar. Welk criterium zullen we dan boven het andere kiezen?
  • Datakwaliteit, AI-modellen en ethische maatstaven zijn allen bewegende doelen. Het idee dat één lijst van principes alles zal oplossen klopt niet. Om een zelflerend systeem op het rechte pad te houden is constante monitoring nodig van data, model en uitkomst in de maatschappij.

Conclusie

Het panel maakte duidelijk dat er veel aandachtspunten zijn bij AI in recruitment, maar er zeker ook opportuniteiten zijn. Het systeem kan bijvoorbeeld ook bias in de eigen datasets opsporen. Het is belangrijk om dit debat interdisciplinair en publiek te voeren, aangezien het ons allen aanbelangt.

We moeten werken aan een gemeenschappelijke taal waarin diverse disciplines (ethici, computerwetenschappers, juristen, …) met elkaar in gesprek kunnen gaan om zo aandachtspunten, maatstaven en grenzen voor het gebruik van AI binnen rekrutering te verduidelijken.

Vanuit het panel en het publiek was er een duidelijke vraag om een kader te scheppen waarin AI in rekrutering kan worden ingezet. Wil je meewerken aan dit kader? Contacteer ons dan via info@data-en-maatschappij.ai.