brAInfood

brAInfood: Wat met fairness & AI?

Datum van publicatie: december 2022 / Gekeken of updates nodig waren: maart 2024

Veel digitale producten, in allerlei delen van de samenleving, gebruiken AI en machine learning algoritmes. Een AI-algoritme bestaat uit een reeks instructies die, als ze correct uitgevoerd worden door een computer/software, een probleem kunnen oplossen of een taak kunnen voltooien. Toch zijn deze systemen vaak een black box en is het niet duidelijk voor mensen hoe de AI-systemen precies tot een beslissing komen. Er zijn verschillende voorbeelden waarvan we als maatschappij vinden dat AI-systemen bestaande vooroordelen (biases) herbevestigen. Denk daarbij aan gezichtsherkenningssoftware die bepaalde huidskleuren beter herkent dan anderen. Om dit te verhelpen kan een algoritme gebruikt worden dat rekening houdt met deze vooroordelen door bepaalde ‘fairness principes’ toe te passen. Er bestaan echter vele verschillende principes en iedereen heeft een eigen mening over welke nu de beste is.

In deze brainfood stellen we een aantal van deze fairness principes voor aan de hand van het voorbeeld van een geautomatiseerde sollicitatieprocedure. Welke van deze principes vind jij het meest eerlijk en rechtvaardig?

Deze brAInfood kwam tot stand in samenwerking met Carmen Mazijn en An Jacobs van het IRP COMPASS project van de Vrije Universiteit Brussel.

Inhoud van de brAInfood

Deze brAInfood bevat een uitleg over...

  • 3 verschillende fairness principes,
  • wat een drempelwaarde is,
  • en het verschil tussen fairness op groepsniveau en individueel niveau

...aan de hand van visualisaties van een fictief scenario rond een geautomatiseerde sollicitatieprocedure

Met brAInfood wil het Kenniscentrum Data & Maatschappij op een toegankelijke manier hapklare informatie over artificiële intelligentie meegeven. brAInfood is beschikbaar onder een CC BY 4.0 licentie en mag dus gedeeld en bewerkt worden zonder onze toestemming te vragen, zolang je ons als auteur vermeldt.