Rapport

Inleiding

Dit visierapport gaat uit van het Kenniscentrum Data & Maatschappij (KDM) en handelt over de maatschappelijke, juridische en ethische aspecten van artificiële intelligentie (AI). In dit document wordt de rol van het Kenniscentrum omschreven en een stappenplan voorgesteld. Ook de thema’s waaraan het Kenniscentrum zal werken, worden uiteengezet. Het visierapport werd via workshops en presentaties aan belanghebbenden en het Vlaams Departement Economie, Wetenschap & Innovatie (EWI) verstrekt. Voor elk thema worden de uitdagingen in kaart gebracht en de voorgenomen stappen om deze uitdagingen aan te pakken belicht. Tot slot wordt ook telkens een niet-limitatieve lijst van bestaande en mogelijk interessante initiatieven gegeven.

Het visierapport is als volgt opgebouwd:

  • Eerst wordt toegelicht hoe dit visierapport tot stand is gekomen.
  • Vervolgens wordt de rol van het Kenniscentrum verduidelijkt.
  • Daarna wordt het rapport opgesplitst in twee delen: een eerste deel over structurele initiatieven die we in Vlaanderen nodig hebben, en een tweede deel over thema’s waaraan het Kenniscentrum zal werken.
    • Het eerste deel is opgevat als een stappenplan met voorgestelde initiatieven. Hierin komt eerst het opzet van het Kenniscentrum als Vlaams institutioneel panel aan bod, vervolgens wordt de rol van het Kenniscentrum in Digitale innovatiehubs (DIH’s) belicht en tot slot wordt de mogelijke bijdrage van het Kenniscentrum tot regulatory sandboxing voorgesteld.
  • Naast deze structurele initiatieven worden in het tweede deel de thema’s behandeld waaraan het Kenniscentrum zal werken om de belanghebbenden proactief te ondersteunen. Deze thema’s zijn:
    • AI-beoordelingsinstrumenten en certificering
  • Chatbots in Vlaanderen
  • AI-systemen en AVG-conformiteit
  • Datamaturiteit en governance
1

Rol van het Kenniscentrum

Het Kenniscentrum Data & Maatschappij werd op 22 maart 2019 opgericht door de Vlaamse regering. Het onderzoekt de wisselwerking tussen data, artificiële intelligentie en de samenleving, en streeft naar een zowel maatschappelijk verantwoord, als ethisch en juridisch correct toepassen van AI in Vlaanderen. Het Kenniscentrum is een samenwerking tussen drie bestaande universitaire onderzoeksgroepen, namelijk imec-SMIT (Vrije Universiteit Brussel), imec-MICT (Universiteit Gent) en het Centre for IT & IP Law – CITIP (KU Leuven), en wordt ondersteund door het Departement Economie, Wetenschap en Innovatie (EWI) van de Vlaamse overheid.

Het Kenniscentrum streeft ernaar de grootst mogelijke maatschappelijke en/of economische voordelen van AI tot bij Vlaamse bedrijven, beleidsmakers, regelgevers en burgers te brengen. Het brengt hiertoe verschillende belanghebbende organisaties samen om gerichter tools, advies en aanbevelingen op te stellen. Het Kenniscentrum ondersteunt tevens verwante koepelorganisaties door ze de nieuwste inzichten te verschaffen, richtlijnen mee te geven of train-the-trainer-programma’s aan te bieden, zodat de opgebouwde kennis via hun bestaande kanalen en in samenwerking wordt doorgegeven.

Uitdagingen

  • Organisaties die momenteel met AI werken zijn (nog) niet vertrouwd met (de rol en taken van) het Kenniscentrum.
  • Hoe kan het brede publiek worden ingelicht over AI en de maatschappelijke, juridische en ethische implicaties?
  • Vlaamse belanghebbenden hebben een betrouwbare partner nodig die aandacht besteedt aan de maatschappelijke, ethische en juridische aspecten van datagestuurde toepassingen en AI.
  • De laatste jaren werden tal van internationale en Europese beleidsinitiatieven opgericht. Verwacht wordt dan ook dat de regelgeving op deze verschillende niveaus zal evolueren, terwijl belanghebbenden zullen verwachten dat de resultaten van deze initiatieven een zekere mate van uniformiteit en harmonisatie zullen vertonen. Welke rol kan het Kenniscentrum hierin spelen?

Algemene taken van het Kenniscentrum

  • Uitgebreide expertise over juridische, maatschappelijke en ethische aspecten van AI opbouwen, om zo uit te groeien tot een regionale expertengroep.
  • Het meest recente wetenschappelijk onderzoek, zowel nationaal als internationaal, omtrent de juridische, maatschappelijke en ethische aspecten inzake AI opvolgen.
  • Best practices en kennis omtrent AI-gerelateerde thema’s delen door vlot toegankelijke en laagdrempelige communicatietools aan te bieden zoals snapshot-rapporten, (visie)documenten of factsheets. De output hiervan moet afgestemd zijn op de noden van beleidsmakers, industriële spelers, het middenveld, het brede publiek en de pers.
  • Op verzoek ad hoc advies omtrent maatschappelijke, ethische en juridische data- en AI-uitdagingen via koepelorganisaties verstrekken of bevorderen.
  • Netwerkevenementen organiseren zoals lunchlezingen, conferenties en seminaries die gericht zijn op AI-technologie en de maatschappelijke, juridische en ethische aspecten ervan.
  • Ten aanzien van het bedrijfsleven beoogt het Kenniscentrum:
    • werkgeversorganisaties en hun leden te ondersteunen bij het doorvoeren van innovaties op het vlak van data- en AI-technologie, met bijzondere aandacht voor de maatschappelijke, ethische en juridische implicaties.
  • Ten aanzien van beleidsmakers en regelgevers beoogt het Kenniscentrum:
    • strategieën uit te werken om de impact van AI in Vlaanderen te beoordelen teneinde de kwaliteit van de cijfers omtrent AI-activiteiten in Vlaanderen te verhogen en te optimaliseren;
    • ervaringen, opvattingen en behoeften van het brede publiek en het bedrijfsleven ten opzichte van AI te monitoren;
    • beleidsaanbevelingen omtrent juridische en ethische aspecten van AI te verstrekken;
    • zo nodig, input omtrent AI-gerelateerde vragen bezorgen.
  • Ten aanzien van het brede publiek beoogt het Kenniscentrum:
    • het bewustzijn omtrent AI en de maatschappelijke, juridische en ethische implicaties ervan te verhogen door nationale en internationale AI-initiatieven te benchmarken;
  • advies te verlenen bij campagnes richting het brede publiek, door de doelgroepen en communicatiestrategieën mee te bepalen en mee af te bakenen welke kennis over AI het brede publiek moet bezitten;
  • als een portaal en informatiepunt over AI voor het brede publiek te fungeren.

Oorspronkelijke taken

  • Voor het Kenniscentrum relevante vertegenwoordigers van belanghebbenden identificeren waaronder beleidsmakers, regelgevers, partners in het bedrijfsleven, innovatoren en het brede publiek. Een adviesraad met vertegenwoordigers van deze verschillende betrokken belanghebbenden opzetten om hun noden doorlopend in kaart te brengen (zie actiepunt 2).
  • De meer fundamentele en algemene juridische, ethische en maatschappelijke uitdagingen van AI structureel aanpakken (zie actiepunten 2-4).
  • Een leeromgeving opzetten voor individuele ondernemingen en organisaties om verkeerde veronderstellingen/aannames over AI en datagestuurde toepassingen weg te werken.
  • Optreden als coördinator bij AI-initiatieven binnen de institutionele structuur van Vlaanderen en helpen bij de verdeling van ethische en juridische bevoegdheden om aldus te streven naar samenwerking tussen de verschillende niveaus en spelers (zie actiepunt 2).

Verwachte resultaten

  • Het Kenniscentrum wordt de centrale hub voor kennis over maatschappelijke, ethische en juridische uitdagingen van AI en data, en de mogelijke oplossingen hiervoor voor organisaties die belanghebbenden vertegenwoordigen.
  • De output van het Kenniscentrum wordt opgenomen in en verspreid door verschillende organisaties van belanghebbenden wanneer zij communiceren naar hun doelgroepen.
  • Advies van het Kenniscentrum wordt gebruikt om maatschappelijke, ethische en juridische aspecten in rekening te brengen bij het tot stand komen van beleidslijnen, regulering en zelfregulering.

Bestaande initiatieven:

Artificial Intelligence Impact Assessment

Wat zijn de juridische en ethische gevolgen voor een organisatie als ze besluiten AI in te zetten? De Artificial Intelligence Impact Assessment (AIIA) helpt deze cruciale vraag te beantwoorden.

https://ecp.nl/publicatie/artificial-intelligence-impact-assessment-english-version/
Plattform Lernende Systeme (“Learning Systems Platform) – Germany’s Platform for Artificial Intelligence

Dit initiatief heeft tot doel aan te tonen hoe AI de economie en ons dagelijks leven beïnvloedt. Het Plattform Lernende Systeme bundelt toepassingen en ontwikkelingsprojecten waarbij AI-technologie werd gebruikt, en dit voor alle bedrijfstakken, toepassingen en ondernemingen hoe groot of klein ook in Duitsland. Het initiatief wordt ondersteund door het Duitse ministerie van Onderwijs en Onderzoek, in samenwerking met het Duitse ministerie voor Economische Zaken en Energie.

https://www.plattform-lernende-systeme.de/ki-landkarte.html
Cartographie des entreprises actives dans l’IA en Wallonie

In het kader van de DigitalWallonia4.ai-strategie, en meer bepaald inzake bredere bewustmaking rond AI, worden de relevante AI-activiteiten en initiatieven in Wallonië in kaart gebracht via het platform Digital Wallonia.

https://www.digitalwallonia.be/fr/publications/cartographie-ia
Elements of AI

Elements of AI is een reeks gratis online cursussen die door Reaktor en de Universiteit van Helsinki werden opgezet. De cursussen hebben tot doel mensen aan te moedigen om te leren wat AI is, waartoe het zich al dan niet leent en hoe AI-methoden kunnen worden opgesteld.

https://www.elementsofai.com/
CDEI Snapshots

De ’Snapshots’ van het Centre for Data Ethics and Innovation (CDEI) zijn korte papers over ethische en beleidsaspecten bij de ontwikkeling en uitrol van AI. Ze hebben tot doel feit van fictie te onderscheiden, te verduidelijken wat bekend en onbekend is omtrent een specifieke kwestie, en mogelijke actielijnen voor de overheid en het bedrijfsleven in de nabije toekomst uit te stippelen.

https://www.gov.uk/government/publications/cdei-publishes-its-first-series-of-three-snapshot-papers-ethical-issues-in-ai
2

Vlaams institutioneel panel over AI

AI-systemen evolueren snel en nemen een steeds prominentere plaats in ons dagelijks leven in. Toch lijkt er nog weinig bekend over de juridische, ethische en maatschappelijke gevolgen van deze systemen. Bovendien beheersen begrippen als ‘betrouwbare en ethische AI’ het beleidsdebat, terwijl het nog steeds onduidelijk is hoe dit in de praktijk moet worden ingevuld. Zoals de High Level Expert Group on AI (AI HLEG) heeft opgemerkt, lijkt er een gebrek aan governance te zijn. De AI HLEG heeft bijgevolg onlangs aanbevolen om een nieuwe institutionele structuur op te zetten voor betrouwbare AI. Deze instelling zou onder meer de volgende taken hebben:

  • bijdragen tot de ontwikkeling van het EU-kader en beleid voor betrouwbare AI;
  • betrokken actoren begeleiden zodat hun toepassingen stroken met de wetgeving en de vereisten voor betrouwbare AI;
  • een inventaris van best practices die worden geacht in overeenstemming te zijn met de toepasselijke wetgeving en de beginselen en vereisten van betrouwbare AI hosten en bijwerken;
  • de publieke en private sector bijstaan bij de toepassing van een risicogebaseerde benadering, onder meer door advies te geven voor de beoordeling van de omvang, waarschijnlijkheid en onaanvaardbaarheid van door AI veroorzaakte risico’s;
  • bijdragen tot de voorbereiding op door AI teweeggebrachte sociaal-economische veranderingen.



We stellen dit punt dan ook als eerste stap voor. Dit maakt immers deel uit van het voorgestelde takenpakket van het Kenniscentrum en helpt om de andere stappen te zetten. Aanknoping met de EU en met relevante nationale en regionale beleidsmakers en overheidsdiensten is vereist.

Uitdagingen:

  • Hoewel deze aanbeveling niet bindend is en het (momenteel) niet bekend is of een dergelijke instelling op EU-niveau zal worden opgericht, moet Vlaanderen de ontwikkelingen in deze richting nauwlettend opvolgen. Zo moet Vlaanderen onderzoeken of en hoe het als regionaal contactpunt kan optreden voor een dergelijke instelling, door het beleid en de richtlijnen die hiervoor op EU-niveau zijn uitgewerkt om te zetten naar en/of te versterken in Vlaanderen, waarbij rekening wordt gehouden met de gebieden waarin het bevoegd is om wetgevend op te treden.
  • Mocht een dergelijke instelling niet op EU-niveau worden opgericht, dan zou het Kenniscentrum eventueel als institutioneel panel kunnen optreden. Gezien de complexe Belgische staatstructuur en de grensoverschrijdende aard van AI, zijn samenwerking en coördinatie met de andere regio’s en op federaal niveau belangrijk. De kans bestaat immers dat fragmentatie tot een gebrek aan overzicht en betrokkenheid van burgers, ondernemingen en overheidsdiensten leidt. Bovendien kan fragmentatie verschillende en zelfs strijdige beleidsbeslissingen tot gevolg hebben.
  • Het ontbreekt het Kenniscentrum aan specifieke domein- of sectorale kennis die vereist is om ervoor te zorgen dat advies, tools of aanbevelingen relevant zijn voor bepaalde gebieden.

Beoogde aanpak

  • Vertegenwoordigers van verschillende regionale en internationale instanties in kaart brengen en uitnodigen om onze aanwezigheid als Vlaams institutioneel panel over AI te bekrachtigen.
  • Wetgevings- en beleidsinitiatieven omtrent AI op zowel EU-niveau, als federaal en regionaal niveau volgen.
  • Beleidsmakers op supranationaal, federaal en regionaal niveau raadplegen om de haalbaarheid en wenselijkheid van een (Europees) institutioneel panel over AI met nationale/regionale contactpunten te onderzoeken.
  • Bevoegdheidsverdeling in de Belgische staatstructuur in kaart brengen.
  • De verschillende spelers en departementen die op regionaal en federaal niveau rond AI werken in kaart brengen en in het bijzonder zicht krijgen op de maatregelen die ze hebben getroffen of zullen treffen.
  • Voorstellen om samen te werken op gebieden waar dat vereist en zinvol kan zijn.
  • Sjablonen opstellen voor toekomstige acties en gegevens van belanghebbenden verzamelen.
  • Het Kenniscentrum ontpopt zich als facilitator van AI-initiatieven met betrekking tot maatschappelijke, ethische en juridische waarden in Vlaanderen en België, waarbij rekening wordt gehouden met de institutionele staatstructuur en de verdeling van bevoegdheden. Tussen alle niveaus en spelers kunnen samenwerkingsverbanden worden voorgelegd om te voorkomen dat vergelijkbare initiatieven worden opgezet of onnodige inspanningen worden geleverd. Zo kan de versnippering van AI-initiatieven, beleidslijnen en spelers in België worden tegengegaan.
  • Het Kenniscentrum draagt bij tot de uitwerking van het AI HLEG-kader en van juridische kaders voor betrouwbare AI.
  • Het Kenniscentrum kan het institutioneel panel voor Vlaanderen worden en een overzicht geven van de relevante beleidsdomeinen en verschillende (regionale en federale) overheden die worden beïnvloed door of werken rond AI.

Verwachte resultaten

  • Het Kenniscentrum ontpopt zich als facilitator van AI-initiatieven met betrekking tot maatschappelijke, ethische en juridische waarden in Vlaanderen en België, waarbij rekening wordt gehouden met de institutionele staatstructuur en de verdeling van bevoegdheden. Tussen alle niveaus en spelers kunnen samenwerkingsverbanden worden voorgelegd om te voorkomen dat vergelijkbare initiatieven worden opgezet of onnodige inspanningen worden geleverd. Zo kan de versnippering van AI-initiatieven, beleidslijnen en spelers in België worden tegengegaan.
  • Het Kenniscentrum draagt bij tot de uitwerking van het AI HLEG-kader en van juridische kaders voor betrouwbare AI.
  • Het Kenniscentrum kan het institutioneel panel voor Vlaanderen worden en een overzicht geven van de relevante beleidsdomeinen en verschillende (regionale en federale) overheden die worden beïnvloed door of werken rond AI.

Bestaande initiatieven

Policy and investment recommendations for trustworthy Artificial Intelligence

Dit document bevat de door de AI HLEG geformuleerde aanbevelingen inzake beleid en investeringen voor betrouwbare AI (cf. supra en vorige benchmark D.1.2).

https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence
Mandate for the International Panel on Artificial Intelligence

Canada en Frankrijk hebben het International Panel on Artificial Intelligence opgericht met als doel een wereldwijd referentiepunt te worden om onderzoeksresultaten omtrent AI en beste praktijken te begrijpen en te delen alsook om internationale AI-initiatieven bijeen te brengen.

https://pm.gc.ca/en/news/backgrounders/2018/12/06/mandate-international-panel-artificial-intelligence
A comprehensive European industrial policy on artificial intelligence and robotics

Het Europees Parlement in deze resolutie: • is van mening dat er, waar relevant en nodig voor specifieke categorieën robots, een uitvoe-rig EU-systeem voor de registratie van geavan-ceerde robots op de interne markt van de Unie moet worden ingevoerd, • verzoekt de Commissie criteria vast te stellen voor de classificatie van robots die geregi-streerd zouden moeten worden, • spoort de Commissie in dit verband aan na te gaan of het wenselijk is dat het registratiesys-teem en het register worden beheerd door een daartoe aangewezen EU-agentschap voor robo-tica en kunstmatige intelligentie.

http://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EN.html
3

Innovatiehubs (over data en AI)

Digitale innovatiehubs (DIH’s) kunnen bijdragen tot de digitalisering van het bedrijfsleven en tot betere lokale innovatie-ecosystemen. DIH’s zijn one-stop-shopsdie ondernemingen helpen hun concurrentievermogen aan te scherpen door verschillende digitale technologieën in hun bedrijfs- of productieprocessen aan te wenden. DIH’s geven toegang tot technische expertise en experimenten (“test before you invest”), ondersteunen bedrijven om investeringen te vinden, bezorgen financieel advies, dragen bij tot de ontwikkeling van vaardigheden en bevorderen netwerkmogelijkheden. Ze spelen een belangrijke rol in het verspreiden van data- en AI-knowhow in het bedrijfsleven. Daarom is het ook belangrijk dat ze in ons netwerk worden opgenomen om tools en richtlijnen van het Kenniscentrum te verspreiden.

Uitdagingen

  • Er bestaan tal van publieke en private initiatieven en inspanningen om innovatie en digitalisering te ondersteunen naast elkaar. Dit kan afbreuk doen aan de duidelijkheid en leiden tot een verspilling van middelen.
  • DIH’s lopen het risico versnipperde en sterk verschillende niveaus van ondersteuning te bieden voor de maatschappelijke, ethische en juridische uitdagingen in verband met data en AI.
  • Belgische DIH-financiering kan gebonden zijn aan de naleving en verwezenlijking van maatschappelijke, ethische en juridische EU-waarden in DIH’s.

We stellen dit als tweede stap voor, omdat dit verderbouwt op het institutioneel panel over AI. Als panel zullen we een werkrelatie met het Europees niveau hebben. DIH’s hebben ook tools en richtlijnen nodig die zijn afgestemd op hun specifieke context (dit wordt nader besproken in actiepunt 5).

Beoogde aanpak

Opzetten van DIH’s

  • Focussen op een betrouwbare uitrol van AI-technologieën in de DIH’s om in overeenstemming te zijn met de Ethische richtlijnen van de AI HLEG. Het Kenniscentrum zou initiatieven van DIH’s kunnen ondersteunen om richtlijnen in het Vlaamse bedrijfsleven te testen en in te voeren.
  • Het opzetten van sectorale hubs die erop gericht zijn om belangrijke (economische) sectoren in Vlaanderen of België te ondersteunen, wanneer dit nodig en nuttig is. In deze hubs moeten AI, high-performance computing (HPC) en cyberveiligheid worden opgenomen. Deze nieuwe hubs kunnen rekening houden met bestaande clusters en initiatieven, of zich erop baseren.
  • Een centrale hub oprichten die alle DIH’s in Vlaanderen bundelt om synergiën op te zetten onder andere op het vlak van beste praktijken om maatschappelijke, ethische en juridische vereisten toe te passen. Deze centrale hub kan ook als centraal aanspreekpunt (‘single point of contact’) fungeren en vragen naar de bevoegde sectorale DIH’s doorverwijzen (cf. model in Nederland).
  • Noodzakelijke (normatieve) criteria vaststellen en vereisten waaraan DIH’s moeten voldoen mede opstellen. Samenwerking tussen bijvoorbeeld VLAIO, andere relevante belanghebbenden en het Kenniscentrum kan nuttig zijn om deze criteria te bepalen.
  • Overheidsfinanciering moet eventueel worden gecombineerd met andere financieringsbronnen (bijv. vergoeding voor bedrijven die innovatieve diensten aanbieden). Het Kenniscentrum kan Vlaamse onderzoek- en innovatiefinancieders helpen om criteria vast te leggen met maatschappelijke, ethische en juridische vereisten waaraan bedrijven moeten voldoen om financiering te ontvangen.
  • Het Kenniscentrum is als belanghebbende betrokken bij het bepalen van de (algemene) digitale strategie voor DIH’s en geeft dienovereenkomstig aanbevelingen.

Coördinatie, communicatie en informatie-uitwisseling

  • DIH’s samen met de verantwoordelijke en bevoegde partners op zowel federale als regionale niveaus (Wallonië) coördineren.
  • Grensoverschrijdende initiatieven volgen en die gebruiken om testmiddelen te ontwikkelen en ons bedrijfsleven te voorzien van diensten met een sterk concurrentievermogen.
  • Samenwerken met DIH’s, ze ondersteunen met betrekking tot maatschappelijke, ethische en juridische kwesties en uitdagingen, als belanghebbende betrokken zijn bij het bepalen van de digitale strategie voor DIH’s en hubs van tools voorzien zodat bedrijven ze kunnen testen.

Verwachte resultaten

  • Relevante DIH’s en identificatie van facilitaire partners om DIH’s in te voeren.
  • Een kader mede tot stand brengen om maatschappelijke, ethische en juridische vereisten op uniforme wijze in alle Vlaamse en/of Belgische DIH’s op te nemen.
  • Het DIH-netwerk als middel gebruiken om sectorale panels op te richten en aldus advies aan te reiken over de uitvoering van maatschappelijke, ethische en juridische beleidsmaatregelen, tools en richtlijnen.
  • Richtlijnen, aanbevelingen en best practices publiceren die belanghebbenden kunnen gebruiken.

Bestaande initiatieven

AI Experience Center

Het AI Experience Center is een gezamenlijk project van vier VUB-onderzoeksgroepen: Artificial Intelligence Lab, Brubotics, SMIT en ETRO. Het is een hightech omgeving voor experimenten, demo’s, en bijeenkomsten waar bedrijven, ondernemers, onderzoekers, beleidsmakers en het brede publiek met AI kunnen experimenteren en kunnen samenwerken om technologische oplossingen te ontwikkelen en te produceren.

https://ai.vub.ac.be/ai-test-experience-center/
Smart Digital Farming, the orchestrator of SmartAgriHubs in Flanders

Smart Digital Farming is de drijvende kracht achter SmartAgriHubs in Vlaanderen. SmartAgriHubs is de verbindende schakel voor innovatie in de agrotechniek om de digitale transformatie van de Europese agrovoedingssector te stimuleren. Het project promoot hiervoor een zelfonderhoudend agrarisch innovatie-ecosysteem dat streeft naar uitmuntendheid, duurzaamheid en succes.

https://www.smartdigitalfarming.be/
Flanders’ digital innovation ecosystem

Overzicht van de digitale innovatie-ecosystemen in Vlaanderen (knowhow en onderzoek, cluster- en toonaangevende organisaties, starterscentra).

https://www.flandersinvestmentandtrade.com/invest/en/sectors/digital-society/digital-society-ecosystem
Flanders’ chemical ecosystem

Overzicht van het chemische ecosysteem in Vlaanderen (knowhow en onderzoek, cluster- en toonaangevende organisaties, starterscentra).

https://www.flandersinvestmentandtrade.com/invest/en/sectors/chemicals/chemicals-ecosystem
Fintech in Flanders

Overzicht van het financieel ecosysteem in Vlaanderen (knowhow en onderzoek, cluster- en toonaangevende organisaties, starterscentra).

https://www.flandersinvestmentandtrade.com/invest/en/sectors/digital-society/fintech
Flanders’ automotive ecosystem

Overzicht van het Vlaams ecosysteem in de automobielsector (knowhow en onderzoek, cluster- en toonaangevende organisaties, starterscentra).

https://www.flandersinvestmentandtrade.com/invest/en/flanders’-automotive-ecosystem
Energy in Flanders

Overzicht van het energie-ecosysteem in Vlaanderen (knowhow en onderzoek, cluster- en toonaangevende organisaties, starterscentra).

https://www.flandersinvestmentandtrade.com/invest/en/sectors/energy
Food in Flanders

Overzicht van het voedingsecosysteem in Vlaanderen (knowhow en onderzoek, cluster- en toonaangevende organisaties, starterscentra).

https://www.flandersinvestmentandtrade.com/invest/en/sectors/food-nutrition/food-nutrition-ecosystem
Flanders’ innovation ecosystem for life sciences

Overzicht van het innovatie-ecosysteem in Vlaanderen voor biowetenschappen en gezondheid (knowhow en onderzoek, cluster- en toonaangevende organisaties, starterscentra).

https://www.flandersinvestmentandtrade.com/invest/en/flanders’-innovation-ecosystem-life-sciences
Pan-Europees netwerk van digitale innovatiehubs (DIH’s)

https://ec.europa.eu/digital-single-market/en/digital-innovation-hubs
4

Regulatory Sandboxing

Regulatory sandboxing stelt particuliere ondernemingen in staat om nieuwe technologische ontwikkelingen in een gecontroleerde proefomgeving te testen. Dit houdt in dat regelgevende instanties zoals gegevensbeschermingsautoriteiten (GBA’s) bepaalde wettelijke voorschriften versoepelen voor specifieke gebruikssituaties. Ze kunnen ook advies aanreiken over risicobeperking en inbedding van regelgeving in bedrijfsprocessen (‘compliance-by-design’). Hiermee wordt tijd bespaard en kan men ‘al doende leren’. Wettelijke maatregelen vaststellen is immers een lang en tijdrovend proces. Bij regulatory sandboxing daarentegen zijn meteen empirische resultaten van een specifieke toepassing zichtbaar. Het stelt regelgevers in staat om (juridische) uitdagingen te identificeren en versnelt het wetgevingsproces.

Dit initiatief vereist de integratie van DIH’s, verschillende overheden en regelgevers. Daarom volgt deze stap op de andere twee actiepunten in dit eerste deel.

Uitdagingen:

    • Er is geen veilige of betrouwbare omgeving voor regulatory sandboxing.
    • Er kan sprake zijn van onevenwicht tussen commerciële belangen en de bescherming van andere rechten en/of het algemeen belang (bijv. transparantie versus bedrijfsgeheimen of commercieel gevoelige informatie).
    • Er is een risico op versnippering wanneer bedrijven dergelijke initiatieven opzetten zonder noodzakelijkerwijs alle bevoegde autoriteiten in te lichten, wat tot een gebrek aan toezicht kan leiden.
    • Beperkte ruimte voor deelnemers in dergelijke initiatieven kan tot concurrentie- en andere problemen leiden (bijv. verloren investeringen indien een bedrijf niet geselecteerd is voor de hub; informatie kan in de handen van concurrenten vallen enz.).
    • De bevoegdheidsverdeling in België kan de doelmatigheid en doeltreffendheid van een regulatory sandbox beïnvloeden, aangezien mogelijk verschillende regelgevers betrokken moeten zijn (cf. bevoegdheden en structuur in België).

Beoogde aanpak:

  • Focussen op een betrouwbare uitrol van AI-technologieën in de DIH’s om ervoor te zorgen dat de Ethische richtsnoeren van de AI HLEG worden nageleefd.
  • Voorwaarden bepalen om in aanmerking te komen voor regulatory sandboxing (bijv. voldoen aan bepaalde normen of certificatie). Als uitgangspunt kunnen specifieke behoeften van het bedrijfsleven worden genomen. Zo kan sectorspecifiek regulatory sandbox worden opgezet.
  • Regelgevende instanties ondersteunen bij het opzetten van een toelatingstest op basis van vooraf bepaalde criteria (bijv. voordelen voor consumenten, innovatief aspect enz.), testparameters of voorwaarden, beoordelingsmethoden en uitstapcriteria. Best practices in andere landen kunnen als inspiratie dienen (cf. functionele vergelijkende methode).
  • Een duidelijke omschrijving geven van specifieke AI-systemen die zijn getest, rekening houdend met het zelflerend vermogen van deze systemen.
  • Onderzoeken hoe de bevoegdheidsverdeling in België een specifieke sandbox kan beïnvloeden, en in het bijzonder beoordelen wat kan worden gedaan om mogelijke institutionele problemen en uitdagingen te verhelpen (cf. Vlaams institutioneel panel).
  • Vastleggen welke sandboxes er in Vlaanderen, België en het buitenland reeds bestaan. Dit zal helpen om te bepalen in welke sectoren ze kunnen worden opgezet en welke bedrijven erin kunnen worden opgenomen.
  • Erop toezien dat verschillende regelgevende instanties, waaronder bijvoorbeeld GBAs, toezicht houden op de regulatory sandbox.
  • Ervoor zorgen dat verantwoording wordt afgelegd en rechtsmiddelen beschikbaar zijn in geval van veroorzaakte schade of andere nadelige gevolgen.
  • Ervoor zorgen dat het publiek en de particuliere belanghebbenden voldoende betrokken en ingelicht zijn om versnippering te vermijden.
  • Onderzoeken of andere innovatieve tools en/of (adaptieve) regelgevingstechnieken naast de sandboxnuttig kunnen zijn bij de regulering van AI.

Verwachte resultaten:

  • Verhoogd inzicht in de mogelijkheden van regulatory sandbox met DIH’s en andere Vlaamse AI-initiatieven.
  • Het uitwerken van mogelijke sandboxes tussen innovatoren en regelgevers vergemakkelijken.
  • Deel uitmaken van of bijdragen tot de opzet van een toezichthoudend orgaan om de uitdagingen op maatschappelijk, ethisch en juridisch vlak aan te pakken.

Bestaande initiatieven

Meer ruimte voor innovatie in de financiële sector - Vervolgstappen markttoegang, vergunningen en toezicht AFM - DNB

Financiële sector, december 2016 De Nederlandsche Bank (DNB) en de Autoriteit Financiële Markten (AFM) houden toezicht op financiële ondernemingen en pensioenfondsen in Nederland.

https://www.dnb.nl/en/binaries/More-room-for-innovation-in-the-financial%20sector_tcm47-361364.pdf
Financial Conduct Authority - Regulatory sandbox

Financiële sector, november 2015 De Financial Conduct Authority is het regulerend orgaan voor gedragstoezicht op 59.000 bedrijven in de financiële dienstverlening en financiële markten in het Verenigd Koninkrijk en voor prudentieel toezicht op meer dan 18.000 van deze bedrijven.

https://www.fca.org.uk/publication/research/regulatory-sandbox.pdf
Finland’s Age ofArtificial Intelligence - Turning Finland into a leading country in theapplication of artificial intelligence - Objective and recommendations for measures

December 2017 ‘Regulatory sandbox’ om gegevensuitwisseling in Finland te bevorderen door het ministerie van Eco-nomische zaken en Werkgelegenheid van Finland

http://julkaisut.valtioneuvosto.fi/bitstream/handle/10024/160391/TEMrap_47_2017_verkkojulkaisu.pdf?sequenc%20e=1&isAllowed=y
Malta Digital Innovation Authority Act

‘Regeling van de oprichting van een autoriteit, Malta Digital Innovation Authority genaamd, om de ontwikkeling en toepassing van de in deze wet omschreven richtsnoeren te ondersteunen en coherente beginselen te bevorderen voor de ontwikkeling van visies, vaardigheden en andere kwaliteiten die verband houden met technologische innovatie, waaronder verspreide of gedecentraliseerde technologie, en om regelgevende functies uit te oefenen inzake innovatieve technologie, regelingen en gerelateerde diensten alsook om voorzieningen te treffen ten aanzien van daarmee samenhangende zaken.’

http://www.justiceservices.gov.mt/DownloadDocument.aspx?app=lom&itemid=12873&l=1
5

AI-beoordelingsinstrumenten en certificering

De richtsnoeren van de AI HLEG omvatten verschillende vereisten die betrouwbare AI moeten garanderen. De kernvereisten werden omgezet in een AI HLEG-controlelijst voor betrouwbare AI die momenteel wordt gevalideerd, maar er bestaan ook andere methoden om data en AI te evalueren. Een belangrijke vraag dringt zich op: hoe moet worden vastgesteld of AI daadwerkelijk betrouwbaar is? Het antwoord op die vraag kan worden geboden door te vertrouwen op praktische tools die specifiek voor die doeleinden worden ontwikkeld en uitgetest. Gemeenschappelijke standaarden en in het bijzonder certificeringsmechanismen om wettelijke, ethische en robuuste AI te waarborgen zijn dan ook nodig.

Voor een vlottere inbedding van AI in Vlaanderen is het noodzakelijk om aan te tonen dat het AI-systeem strookt met maatschappelijke, ethische en juridische waarden.

Uitdagingen:

  • Het is onduidelijk hoe kan worden verzekerd dat AI voldoet aan maatschappelijke, ethische en juridische normen. Hierdoor is het moeilijk voor innovatoren om aan te tonen dat ze aan ethische richtlijnen voldoen.
  • Het ontbreekt aan duidelijke processen en vereisten om na te gaan hoe bedrijven kunnen beantwoorden aan AI-beoordelingscriteria.
  • Het naleven van regels wordt vaak gezien als een administratieve rompslomp. Specifieke tools moeten deze last verlichten en een middel tot productdifferentiatie zijn.
  • Hoe kan certificering als reguleringsinstrument worden gebruikt om betrouwbare AI te waarborgen en te promoten?

Beoogde aanpak:

  • Belanghebbenden samenbrengen om te bespreken hoe betrouwbare AI kan worden bewerkstelligd en beoordeeld (doorlopend proces, cf. het vorige door AI4Belgium georganiseerde evenement).
  • Niet alle maatschappelijke, ethische en juridische methoden zullen nuttig blijken voor elke AI-toepassing of elke stap van het ontwikkelingsproces. Het is dan ook belangrijk om prioriteiten te stellen in de handelwijze.
  • Onderzoeken welke praktische instrumenten reeds bestaan, om op lange termijn tijd, inspanningen en kosten te besparen.
  • Alle ethische richtlijnen omzetten in duidelijke beoordelingscriteria.
  • Uitgaan van bestaand (academisch) onderzoek om te beoordelen hoe certificering als reguleringsinstrument kan worden aangewend om betrouwbare AI te promoten.
  • Beoordelen in welke mate een beroep kan worden gedaan op het bestaande juridische kader om de nodige antwoorden te vinden (cf. GDPR, Richtlijn Productaansprakelijkheid).

Verwachte resultaten:

  • Bekendmaken van de voor- en nadelen van AI-beoordelingsmethoden, toegepast op specifieke cases om hun geschiktheid en bruikbaarheid te illustreren.
  • Instrumenten ontwikkelen in samenwerking met relevante belanghebbenden voor de meest voorkomende of meest nodige AI-toepassingen.
  • Verslag uitbrengen over het gebruik van certificering als reguleringsinstrument om betrouwbare AI-systemen te promoten (i.e. voordelen, uitdagingen enz.).

Existing initiatives to consider:

Foundation for Responsible Robotics (FRR)

De Foundation for Responsible Robotics (FRR) streeft ernaar de toekomst van verantwoord ontwerp, ontwikkeling, gebruik, regulering en implementatie van robotica vorm te geven. De Foundation for Responsible Robotics werkt samen met Deloitte voor de opzet van een FRR-kwaliteitskeurmerk voor robotica en AI (‘Quality Mark for Robotics and AI’). Dit kwaliteitslabel voor robotproducten geeft consumenten aan dat het product door een onafhankelijke externe deskundigengroep voor verantwoorde robotica werd beoordeeld. Het kwaliteitslabel heeft tot doel belangrijke eigenschappen van producten die bijdragen tot een betere wereld, waaronder duurzaamheid, integriteit, veiligheid en beveiliging, en ethisch ontwerp waarbij de maatschappelijke impact in aanmerking wordt genomen, te bevorderen.

https://responsiblerobotics.org/
The Ethics Certification Program for Autonomous and Intelligent Systems (ECPAIS)Developing metrics and processes towards the implementation of a certification methodologyaddressing transparency, accountability and algorithmic bias

Het Institute of Electrical and Electronics Engineers (IEEE) introduceert een certificeringsprogramma op het gebied van ethiek voor autonome en intelligente systemen (ECPAIS). Het ECPAIS (‘Ethics Certification Program for Autonomous and Intelligent Systems’) heeft tot doel specificaties op te zetten voor certificeringsprocessen en keurmerkmethodologieën die transparantie, verantwoording en minder algoritmische biases in autonome en intelligente systemen bevorderen.

https://standards.ieee.org/industry-connections/ecpais.html
6

Chatbots in Vlaanderen

Chatbots kunnen worden gezien als autonome AI-toepassingen die natural language processing (NLP) en scripts gebruiken om communicatietaken die voorheen door werknemers werden uitgevoerd, te automatiseren. Ze worden niet alleen bij innovatieve bedrijven, maar ook binnen gemeenten ingezet om de klok rond klantenservice aan te bieden.

Niet alle gemeenten en bedrijven beschikken echter over de vereiste kennis om te begrijpen hoe chatbots werken en wat hun voor- en nadelen kunnen zijn. Het Kenniscentrum zal chatbots als case gebruiken om zijn richtlijnen en tools toe te passen, zodat maatschappelijke, ethische en juridische aspecten standaard ingebed zijn in het ontwikkelingsproces van chatbots.

Deze AI-toepassing is momenteel beschikbaar op de markt, en wordt dermate gebruikt dat een groot deel van de bevolking in de nabije toekomst met een chatbot zal communiceren. Het is dan ook een ideale case om de methoden van het Kenniscentrum te illustreren. Er werd hiervoor een samenwerkingsverband met het VVSG opgezet, en ook EWI heeft reeds interesse in dit project uitgesproken.

Uitdagingen:

  • Er is nog geen consensus over de domeinen waarvoor een chatbot al dan niet geschikt is. In hoeverre mogen lokale overheden bijvoorbeeld het toekennen van sociale rechten en uitkeringen automatiseren, en hoe kunnen we exclusie vermijden of verminderen?
  • Er bestaan geen richtlijnen over de transparantie ten aanzien van door mensen ondersteunde chatbots en andere maatschappelijke, ethische en juridische verplichtingen zoals de verwerking van persoonsgegevens.
  • Het is onduidelijk of het brede publiek begrijpt hoe chatbots werken.
  • Normen en aanbevelingen zijn nodig om ervoor te zorgen dat chatbottoepassingen de samenleving ten goede komen.

Beoogde aanpak:

  • De verschillende chatbottoepassingen in private en publieke diensten analyseren en beoordelen welke voordelen ze bieden voor de klant en voor de dienstverlener.
  • Een instrument ontwikkelen om te beoordelen of het gebruik van chatbots geschikt is.
  • Standaardbepalingen voor de aankoop, dataverwerking en transparantie opstellen, alsook een label of certificaat om aan te tonen dat de nodige maatregelen werden getroffen om de geschiktheid van een chatbot te beoordelen.
  • Een inclusietest of vragenlijst uitwerken om te beoordelen of, en hoe, mensen kunnen worden vervangen of ondersteund door een chatbot.

Verwachte resultaten:

  • Een witboek op basis van best practices voor chatbots in Vlaanderen waarin chatbotontwikkelaars, hun klanten en het doelpubliek voor chatbots aan bod komen.
  • Een instrument om de geschiktheid van chatbots te beoordelen aan de hand van maatschappelijke, ethische en juridische waarden.
  • Een aanbeveling voor standaardisatie van chatbots, opgesteld in samenwerking met de vertegenwoordigers van belanghebbenden.

Bestaande initiatieven:

Open Standaarden voor Linkende Organisaties (OSLO)

De publieke diensten aan burgers en ondernemers in Vlaanderen worden ondersteund door verschillende gespecialiseerde toepassingen van verschillende softwareleveranciers. Het doel van Open Standaarden voor Linkende Organisaties (OSLO) is om te zorgen voor meer samenhang, een betere begrijpbaarheid en vindbaarheid van informatie en dienstverlening.

https://overheid.vlaanderen.be/producten-diensten/oslo2
Smart Flanders

Vlaams minister voor Binnenlands Bestuur Liesbeth Homans lanceerde op 1 januari 2017 het Smart Flanders-programma, een ondersteuningsprogramma dat door onderzoekers van imec uitgevoerd wordt. De Vlaamse overheid ondersteunt daarmee verschillende steden in hun ontwikkeling tot smart cities.

https://smart.flanders.be/
Programma Innovatieve Overheidsopdrachten

PIO 2019

http://innovatieveoverheidsopdrachten.be/
Clever chatbot

Clever ontwikkelde reeds een chatbot die in Aalter wordt gebruikt.

https://www.clever.be/
7

AI-systemen en AVG-conformiteit

De Algemene Verordening Gegevensbescherming (AVG) heeft hoofdzakelijk tot doel:

  • eenieders recht op de bescherming van zijn of haar persoonsgegevens te waarborgen, door hen de controle over de verwerking van deze gegevens te geven en verwerkingsprincipes op te leggen zoals transparantie, behoorlijkheid (fairness), doelbinding, verantwoordingsplicht, minimale gegevensverwerking en rechtmatigheid;
  • een economische en sociale omgeving te creëren waarin betrokkenen gerust kunnen zijn dat hun persoonsgegevens alleen volgens hun verwachtingen worden verwerkt, en hun persoonsgegevens dus zonder vrees kunnen delen, zodat dergelijke gegevens voor de economische ontwikkeling en de gehele samenleving kunnen worden gebruikt;
  • het vrije verkeer van persoonsgegevens binnen de Europese Economische Ruimte te waarborgen en te vergemakkelijken.

De vereisten en de werking van AI-systemen, zoals hun behoefte aan grote hoeveelheden data en het “black box”-principe, worden vaak als moeilijk verzoenbaar met de AVG beschouwd, vooral omdat de AVG bepaalde specifieke AI-functies lijkt te beperken.

De thematische focus op de AVG zal “regulatory sandboxes”, AI-assessments en certificeringen ondersteunen, aangezien de AVG van belang is zodra AI-toepassingen persoonsgegevens verwerken.

Algemene AVG-uitdagingen:

  • Het verwerken van persoonsgegevens door AI-systemen, inclusief automatische besluitvorming op basis van persoonsgegevens, mag iemands recht op bescherming van persoonsgegevens niet aantasten.
  • Verkeerd interpreteren of verkeerd toepassen van de AVG moet worden vermeden, aangezien dit innovatie en ontwikkeling van AI-systemen kan verstoren of afremmen en de hieruit voortvloeiende maatschappelijke meerwaarde kan verminderen. Uit beduchtheid voor AVG-sancties zouden organisaties het gebruik van AI-systemen kunnen vermijden bij het verwerken van persoonsgegevens.
  • AI-businesscases opzetten zonder rekening te houden met de AVG-vereisten kan/zal leiden tot een ‘technische schuld’, waardoor organisaties in een later stadium (nog meer) zullen moeten investeren om in overeenstemming te zijn met de privacywetgeving. Het vereffenen van deze ‘technische schuld’ zal het ontwikkelingsproces hinderen en bijgevolg concurrentievoordelen bemoeilijken, wat in een eerder stadium kon worden voorkomen. Bovendien kan de niet-tijdige afhandeling ervan tot boetes leiden wegens inbreuk op de AVG.
  • Het doel en de reikwijdte van de AVG zijn niet altijd duidelijk met betrekking tot AI. De toepasselijke bepalingen leiden tot verschillende interpretaties. Dit zorgt voor rechtsonzekerheid omtrent de wijze waarop AI-systemen AVG-conform kunnen worden aangewend, en vormt een belemmering om AI-systemen in de EU te ontwikkelen.
  • De impact van AI-systemen op iemands grondrechten is mogelijk onderbelicht vanwege de sterke focus op de vaak veeleer administratieve/formalistische implementatie van de procedures en vereisten krachtens de AVG. Een dergelijke administratieve/formalistische benadering ten aanzien van AVG-conformiteit kan de goede ontwikkeling van privacy-bewustzijn en een privacy-cultuur in organisaties hinderen, waardoor het moeilijk wordt om de AVG in nieuwe en complexe situaties toe te passen.
  • Veel organisaties hebben nu reeds moeite om de AVG na te leven. Dit zal alleen maar problematischer worden bij de uitrol van AI-systemen aangezien die een meer gedegen en bredere aanpak voor gegevensbescherming vereisen.
  • AI-systemen kunnen nuttig zijn om het recht op gegevensbescherming van individuen te waarborgen en om organisaties te helpen de AVG na te leven.
  • AI-systemen kunnen talrijke (maatschappelijke) voordelen bieden bij de verwerking van specifieke categorieën van persoonsgegevens zoals gezondheidsgegevens. De verwerking van dergelijke gegevenscategorieën vormt evenwel een hoger risico voor de betrokkenen. Hieruit volgt een hogere beschermingsgraad voor dergelijke persoonsgegevens en aanvullende beperkingen bij de verwerking ervan, waardoor de uitrol van AI-systemen op deze vlakken extra moeilijk wordt.

Specifieke AVG-uitdagingen:

  • Door beginselen voorop te stellen als minimale gegevensverwerking, verantwoordingsplicht, transparantie en verklaarbaarheid met betrekking tot het verwerken van persoonsgegevens, kan de indruk worden gewekt dat de AVG een milieu creëert waarin wordt verhinderd dat data-gestuurde AI-systemen volledig worden ingezet (‘ontplooien’) hoewel ze een nood hebben om zo veel mogelijk persoonsgegevens te verwerken en herverwerken.
  • Verklaarbaarheid lijkt moeilijk toe te passen wanneer AI-systemen beslissingen maken. De vereiste om acties van AI-systemen te kunnen verklaren en dergelijke systemen aan een kritisch onderzoek te kunnen onderwerpen, kan evenwel bijdragen tot de ontwikkeling van “betrouwbare AI”. Door deze beginselen toe te passen kunnen namelijk eventuele biases in besluitvormingsprocessen van AI-systemen worden blootgelegd die anders voor een lange(re) periode onopgemerkt zouden blijven. Het is dan ook belangrijk om de voordelen die voortvloeien uit een verklaarbaarheidsvereiste bij de ontwikkeling van betrouwbare AI te benadrukken, ook buiten het strikte toepassingsgebied van de AVG.
  • De AVG legt tevens transparantie- en informatieverplichtingen op die nauw samenhangen met de kwestie van verklaarbaarheid. Persoonsgegevens moeten op een transparante wijze worden verwerkt en de betrokkenen moeten even transparant worden ingelicht over de manier waarop en voor welke doeleinden hun persoonsgegevens worden verwerkt.
  • De AVG legt ook specifieke vereisten op aan profilering en geautomatiseerde besluitvorming. Deze processen maken namelijk vaak gebruik van AI-systemen.
  • De AVG bevat bepaalde beperkingen in verband met het verzamelen van persoonsgegevens die tegenstrijdig kunnen zijn met de manier waarop AI-systemen idealiter toegang hebben tot gegevens. Bijvoorbeeld:
    • persoonsgegevens moeten voor welbepaalde, uitdrukkelijk omschreven en legitieme doeleinden worden verzameld en mogen vervolgens niet verder op een met die doeleinden onverenigbare wijze worden verwerkt;
    • persoonsgegevens dienen toereikend en ter zake dienend te zijn en beperkt te blijven tot wat noodzakelijk is voor de doeleinden waarvoor zij worden verwerkt.
  • Betrokkenen hebben tevens het recht om bezwaar te maken tegen de verwerking van hun persoonsgegevens waaronder profilering, verwerking in het algemeen belang of voor het gerechtvaardigde belang van de verwerkingsverantwoordelijke, tenzij het belang van de verwerkingsverantwoordelijke zwaarder weegt. Betrokkenen kunnen eveneens bezwaar maken tegen de gegevensverwerking voor marketingdoeleinden. De verwerking van dergelijke persoonsgegevens moet in deze gevallen worden stopgezet.
  • Er bestaan verschillende vereisten en beperkingen inzake geautomatiseerde individuele besluitvorming waaronder profilering.

Beoogde aanpak:

Identificatiestappen:

  • Aan het licht brengen van veelvoorkomende misvattingen omtrent (het verband tussen) de AVG en AI.
  • Aan het licht brengen van hinderpalen voor belanghebbenden wanneer ze de AVG toepassen op AI-systemen.
  • Aan het licht brengen van eventuele wrijvingen en spanningsvelden tussen gegevensbeschermingsvereisten en het optimale gebruik van AI-systemen, en richtlijnen aanreiken om ze te verhelpen.
  • het publiek inlichten over de voordelen van AVG-conform gebruik van AI-systemen.

Informatiestappen. Het kenniscentrum moet …

  • informatie en advies verstrekken aan de stakeholders omtrent hun mogelijke aansprakelijkheid op grond van de AVG. Er moet met andere woorden duidelijkheid worden verschaft over het aansprakelijkheidsrisico dat bedrijven lopen onder de AVG.
  • bedrijven en andere betrokken spelers inlichten over de interpretatie en toepassing van relevante AVG-bepalingen en aspecten voor AI-systemen.
  • bedrijven en andere betrokken actoren verder inlichten over hoe ze:
    • AVG-verplichtingen kunnen omzetten in de praktijk, in het bijzonder wanneer ze AI-systemen gebruiken;
    • persoonsgegevens kunnen anonimiseren en het gebruik van dergelijke gegevens door AI-systemen mogelijk te maken zonder in het toepassingsgebied van de AVG te treden;
    • de behoefte aan uitgebreide datasets te verminderen;
    • kunnen voldoen aan de transparantievereisten in verband met blackboxbesluiten, door bijvoorbeeld verklaarbare AI-methoden (‘Explainable AI’ of XAI) uit te werken of te hanteren;
    • kunnen vermijden AI te gebruiken indien iemands recht op gegevensbescherming wordt aangetast.

Ontwikkelingsstappen:

  • Privacy-by-design moet worden bevorderd en moet de norm worden bij het ontwikkelen en gebruiken van AI. Door privacy-by-design effectief in te voeren worden “technische schulden” in een latere fase vermeden.
  • Er moet ”regulatory sandboxes” worden opgezet om onderzoekers en het bedrijfsleven in staat te stellen AI-systemen te ontwikkelen in nauw overleg met de gegevensbeschermingsautoriteiten (zie actiepunt 4).
  • Informatie- en begeleidingstools opzetten die rechtstreeks door KMO’s kunnen worden toegepast en het privacy-bewustzijn werkelijk vergroten, in plaats van de louter formalistische, ‘afvink’-attitude ten aanzien van gegevensbescherming. Het Kenniscentrum kan helpen om het bestaande conceptueel kader omtrent privacy om te zetten in meer praktische tools die AI-ontwikkelaars daadwerkelijk kunnen helpen om te voldoen aan de privacy-vereisten.
  • Samenwerken met bestaande sectorale organisaties om deze tools te ontwikkelen en te verspreiden.
  • De ontwikkeling en het gebruik van AI-systemen bev zowel orderen om AVG-conformiteit te verbeteren en te monitoren.
  • De verklaarbaarheid en onderzoekbaarheid bevorderen om een beter begrip te hebben van AI-systemen, om de kwaliteit van AI-gebaseerde beslissingen te waarborgen, om biases te vermijden en om de AVG na te leven.

Verwachte resultaten:

  • De resultaten van de beoogde stappen publiceren en communiceren.
  • Belanghebbenden advies aanreiken over de resultaten van de beoogde stappen.
  • Sectorspecifieke beste praktijken over hoe gegevensbeschermingsprincipes moeten worden toegepast bij het gebruik en de ontwikkeling van AI-systemen opstellen en verspreiden. Hierbij kan worden gedacht aan het ontwikkelen en bezorgen van effectbeoordelingen voor gegevensbescherming bijvoorbeeld.
  • Workshops en trainingen voor stakeholders (‘train-the-trainer’) en het publiek organiseren.

Bestaande initiatieven:

Declaration on ethics and data protection in artificial intelligence

Verklaring omtrent ethiek en gegevensbescherming bij kunstmatige intelligentie (2018 - Europese Toezichthouder voor gegevensbescherming)

https://edps.europa.eu/sites/edp/files/publication/icdppc-40th_ai-declaration_adopted_en_0.pdf
ExplAIn

Project ExplAIn (2019 – Britse privacytoezichthouder ICO)

https://ico.org.uk/about-the-ico/research-and-reports/project-explain-interim-report/
Algorithms and artificial intelligence: CNIL’s report on the ethical issues

Verslag van de Commission Nationale de l'Informatique et des Libertés (CNIL) over de ethische uitdagingen van algoritmen en kunstmatige intelligentie (2017 - CNIL)

https://www.cnil.fr/en/algorithms-and-artificial-intelligence-cnils-report-ethical-issues
Ethics Guidelines for Trustworthy AI

Ethische richtsnoeren voor betrouwbare AI, gepubliceerd op 8 april 2019 en opgesteld door de deskundigengroep op hoog niveau inzake kunstmatige intelligentie (AI HLEG)

https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
Guidelines on Artificial Intelligence and data protection

Richtlijnen omtrent kunstmatige intelligentie en gegevensbescherming (2019 - Raad van Europa)

https://www.coe.int/en/web/artificial-intelligence/-/new-guidelines-on-artificial-intelligence-and-data-protection
Big data, artificial intelligence, machine learning and data protection

Big data, kunstmatige intelligentie, machine learning en gegevensbescherming (2017 – ICO)

https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf
Guide for GDPR implementation for SMEs

Aanwijzingen voor KMO’s om de AVG toe te passen in hun bedrijf

http://ict-kmo.be/sites/default/files/52/brochure_ict_kmo_2018.pdf
An artificial intelligence impact assessment

Een effectbeoordeling voor artificiële intelligentie, opgesteld door het Electronic Commerce Platform (ECP) in Nederland.

https://ecp.nl/publicatie/artificial-intelligence-impact-assessment-english-version/
Tetra

TETRA VLAIO-project. Dit project focust op het innoveren van het software ontwikkelingsproces in het licht van de nieuwe privacyregels en met het oog op het verhogen van de competitiviteit van software ontwikkelaars, integratoren en consultants die zich hard focussen op de groeiende markt van toepassingen waarbij persoonsgegevens worden verzameld en verwerkt. Partners in dit project: CiTiP en Distrinet, beide KU Leuven.

https://msec.be/GDPR/
BOOST

Project BOOST - De kennis en naleving van de AVG bij Belgische KMO’s boosten. Partners in dit project: Belgische gegevensbeschermingsautoriteit, imec-SMIT (VUB) en CiTiP (KU Leuven).

https://www.law.kuleuven.be/citip/en/research/projects
8

Datamaturiteit en governance

Dit onderdeel is gebaseerd op cases waar de AVG niet van toepassing is, maar waar een andere vorm van databeheer en -governance nodig is. Dit thema komt als laatste aan bod omdat het expertise vergt van buiten het Kenniscentrum.

Data zijn van essentieel belang voor de meeste AI-systemen. Een van de eerste stappen in het ontwikkelingsproces is dan ook het verzamelen en gereedmaken van data. Om te onderzoeken hoe AI op een maatschappelijk, ethisch en juridisch aanvaardbare manier in een organisatie of een bepaalde sector kan worden toegepast, moeten we nagaan of de data op een voldoende gedegen wijze worden beheerd om AI-systemen te kunnen ontwikkelen en uit te rollen. Ook de kwaliteit van de verzamelde data speelt een belangrijke rol, waarbij (een bepaalde mate van) datastandaardisering wellicht nodig is om de betrokken spelers in staat te stellen data van derde partijen te gebruiken en te delen. In dit visierapport delen we de geïdentificeerde data-gerelateerde uitdagingen in vier categorieën in: dataregulering, datamaturiteit, datakwaliteit en datastandaardisatie

Uitdagingen:

  • Dataregulering
    • Naargelang het type data geldt er een andere regelgeving. Dit kan verwarrend zijn voor Vlaamse organisaties en bedrijven, en een impact hebben op datakwaliteit, datamaturiteit en datagovernance.
  • Datamaturiteit
    • Zonder data governance zijn gegevensets niet matuur genoeg, waardoor de invoering en ontwikkeling van (betrouwbare) AI wordt belemmerd.
  • Datamaturiteit verwijst eveneens naar databeheer op organisatorisch niveau en heeft betrekking op de volgende vragen:
    • Worden de gegevens in een bedrijf op uniforme wijze opgeslagen?
  • Is het duidelijk waar en hoe de gegevens zijn verzameld?
  • Zijn de verzamelde gegevens nog accuraat?
  • Datakwaliteit
    • AI-ontwikkelingsprocessen vergen aanzienlijk veel tijd en middelen voor datazuivering en -structurering. Hierdoor zijn minder middelen en tijd beschikbaar voor het trainen van AI.
  • Lage datakwaliteit kan uitmonden in misleidende en inadequate AI-systemen, die op hun beurt tot biases en inaccurate resultaten kunnen leiden.
  • Datastandaardisatie
    • Datastandaardisatie verwijst naar het bestaan en gebruik van standaarden om data uit te wisselen in de publieke of private sector.
  • Momenteel lopen er verschillende initiatieven voor datastandaardisatie. Belgische overheidsinstanties hanteren bijvoorbeeld op elk niveau EU-normen. Daarom is het belangrijk dat de nodige aandacht wordt geschonken aan bestaande (grensoverschrijdende) normen (bijv. Isa2, OSLO, OSLO2 van Core Public Services Vocabularies).
  • Zowel de voordelen als de nadelen van datastandaardisatie dienen in overweging te worden genomen. Waar verhoogde standaardisatie tot vlottere gegevensoverdracht, betere machine learning of sterker concurrerende markten kan leiden, kan het ook negatieve externaliteiten met zich meebrengen (i.e. verhoogde profilering, meer privacy- en cyberveiligheidsrisico’s).

Beoogde aanpak:

  • Dataregulering
    • Een duidelijk en begrijpelijk platform of website opzetten waarin alle toepasselijke wetgeving is opgenomen (cf. CUTLER Project CiTiP).
  • Datamaturiteit
    • Datagovernance:
      • Een werkwijze vastleggen en verspreiden om de datamaturiteit van een sector te beoordelen (bijv. vragenlijst).
    • Een werkwijze vastleggen en verspreiden om de datamaturiteit van een organisatie te beoordelen (bijv. vragenlijst) zodat een bepaald schema kan worden opgesteld dat de organisatie kan volgen wanneer ze met data omgaat. Deze beoordeling moet het voor organisaties mogelijk maken om een degelijk kader voor datagovernance op te zetten waarin ze hun processen, beleid, praktijken en structuren kunnen bepalen om data beter te verzamelen, op te slaan, te gebruiken en te verspreiden.
    • Nagaan of het wenselijk is om (extra) gegevensuitwisselingsverplichtingen in te voeren. Hierbij is de analogie en link met de voormalige Richtlijn inzake overheidsinformatie en de Richtlijn inzake open data belangrijk. Er zouden ook alternatieve modellen voor datagovernance moeten worden ontwikkeld en gebruikt om een evenwichtigere machtsverdeling na te streven op het gebied van dataverzameling, -opslag en -uitwisseling.
    • Databeheer:
      • Operationele modellen voor datamaturiteit en governance (of gerelateerde beste praktijken) die door bedrijven en organisaties zelf kunnen worden toegepast, verzamelen, verdelen en/of ontwikkelen.
    • Betrokken organisaties vertrouwd maken met dergelijke modellen voor datamaturiteit en governance.
    • Datakwaliteit
      • Kwantitatieve en kwalitatieve beoordelingscriteria uitwerken om hoogwaardige datasets vast te stellen door middel van een benadering met meerdere belanghebbenden (bijv. opendatacertificaten). De datakwaliteit kan ook door een toezichthoudende autoriteit (cf. institutioneel AI-panel) worden beoordeeld vooraleer een AI-systeem wordt gebruikt.
    • Gebruiksvriendelijke databases oprichten die visualisatietechnieken hanteren. Er kunnen maatregelen worden getroffen om de toegankelijkheid, leesbaarheid en interoperabiliteit van datasets te verbeteren.
    • Bedrijven en organisaties stimuleren om gebruik te maken van hun reeds beschikbare data. Relevante beste praktijken en richtlijnen verzamelen en verdelen.
    • Datastandaardisatie
      • Zorgen voor, verdelen en/of opzetten van standaarden voor datasamenwerkingsverbanden (‘data collaboratives’) of open data en/of gerelateerde compatibiliteitsmodellen.
    • Een methodologie om standaarden vast te stellen uitwerken, en dit door individuen en gemeenschappen.
    • Een datatoegangsprotocol op basis van de FRAND-beginselen (Fair, Reasonable And Non-Discrimanatory) overwegen.

Verwachte resultaten:

  • Een overzicht van de relevante voorschriften en normen voor bepaalde data of sectoren op- of samenstellen.
  • Een kader voor datagovernance mede tot stand brengen.
  • Aanbevelingen en richtlijnen (algemeen voor sectoren en voor regelgevers).
  • De resultaten van de beoogde aanpak publiceren en communiceren.
  • Belanghebbenden advies aanreiken over de resultaten van de beoogde aanpak.
  • Verslag uitbrengen over de situatie in andere landen (vergelijkende methode).

Bestaande initiatieven:

Data collaboratives

Data collaboratives is een nieuwe vorm van samenwerking, naast het model voor publiek-private partnerschappen, waarbij deelnemers van verschillende sectoren - in het bijzonder bedrijven - hun data uitwisselen om maatschappelijke meerwaarde te creëren.

https://datacollaboratives.org
Open Standaarden voor Linkende Organisaties (OSLO)

De publieke diensten aan burgers en ondernemers in Vlaanderen worden ondersteund door verschillende gespecialiseerde toepassingen van verschillende softwareleveranciers. Het doel van Open Standaarden voor Linkende Organisaties (OSLO) is om te zorgen voor meer samenhang, een betere begrijpbaarheid en vindbaarheid van informatie en dienstverlening.

https://overheid.vlaanderen.be/producten-diensten/oslo2
Smart Flanders

Vlaams minister voor Binnenlands Bestuur Liesbeth Homans lanceerde op 1 januari 2017 het Smart Flanders-programma, een ondersteuningsprogramma dat door onderzoekers van imec uitgevoerd wordt. De Vlaamse overheid ondersteunt daarmee verschillende steden in hun ontwikkeling tot smart cities.

https://smart.flanders.be/
Djust Connect Boer & Data

De focus ligt op de gegevensuitwisseling in de agro-voedselketen. De initiatiefnemers zijn ILVO, Aveve, Boerenbond, CRV, DGZ en Milcobel.

https://djustconnect.be/nl/
9

Colofon en Modus Operandi

Hoe dit rapport tot stand kwam

Ter voorbereiding van dit visierapport kwam het Kenniscentrum op drie gelegenheden samen met verschillende belanghebbenden. Twee gelegenheden waren door het Kenniscentrum georganiseerde interactieve workshops. De derde gelegenheid was een presentatie van de Werkgroep implementatie en opleiding actieplannen AI en cybersecurity (CS).

  • 05.11.2019: de eerste versie van het visierapport werd voor input en feedback voorgelegd aan een expertengroep inzake AI. De deelnemers konden tijdens deze workshop hun noden, prioriteiten en bedenkingen formuleren met betrekking tot de oorspronkelijke tien punten die de basis van dit document vormden. Voor deze workshop werden organisaties uitgenodigd die onze doelgroepen vertegenwoordigen.
  • 13.11.2019: de tweede versie werd voorgelegd aan de Werkgroep implementatie en opleiding actieplannen AI en CS.
  • 15.11.2019: er werd een bottom-up workshop georganiseerd met leden van de VVSG, met concrete AI-toepassingen als uitgangspunt. De betrokken actoren wezen op ethische, juridische of maatschappelijke knelpunten voor lokale overheden en burgers.

Colofon

© 2019, Kenniscentrum Data & Maatschappij

Dit rapport is beschikbaar onder een CC BY 4.0-licentie.

U bent vrij om het visierapport te delen of te bewerken onder de volgende voorwaarden:

naamsvermelding & geen aanvullende restricties. Voor elementen van het materiaal die zich in het publieke domein bevinden, en voor vormen van gebruik die worden toegestaan via een uitzondering of beperking in de Auteurswet, hoeft u zich niet aan de voorwaarden van de licentie te houden. Er worden geen garanties afgegeven. Het is mogelijk dat de licentie u niet alle gebruiksvrijheden geeft die nodig zijn voor het beoogde gebruik. Bijvoorbeeld, andere rechten zoals publiciteits-, privacy- en morele rechten kunnen het gebruik van een werk beperken.

Meer informatie over Creative Commons-licensering vindt u op https:// creativecommons.org.

Citeren:

Ballon, P., Bénichou, B., Bertels, N., De Bruyne, J., Duysburgh, P., Fierens, M., Franck, G., Gils, T., Heyman, R., Laenens, W., Rossello, S., Valcke, P., Wauters, E. (2019). Visierapport Kenniscentrum Data & Maatschappij. Kenniscentrum Data & Maatschappij, Brussel, België. [auteurs in alfabetische volgorde]

Voetnoten

  • 1 In dit visierapport wordt onder ‘AI’ artificiële of kunstmatige intelligentie verstaan zoals dit wordt omschreven door de zogenaamde High-Level Expert Group on Artificial Intelligence (AI HLEG) van de Europese Commissie. Deze expertengroep omschrijft AI als volgt: “Artificial intelligence (AI) systems are software (and possibly also hardware) systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their be-haviour by analysing how the environment is affected by their previous actions. As a scientific discipline, AI includes several approach-es and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical sys-tems).” Meer informatie met betrekking tot deze omschrijving vindt u hier: https://ec.europa.eu/futurium/en/ai-alliance- consulta-tion/guidelines#Top.
    https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top.
  • 2 High-Level Expert Group on Artificial Intelligence (AI HLEG)
    https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence
  • 3 VLAIO - Vlaams Agentschap Innoveren & Ondernemen / Flanders Innovation & Entrepreneurship
    https://www.vlaio.be/nl/andere-doelgroepen/flanders-innovation-entrepreneurship
  • 4 AI4Belgium
    https://www.ai4belgium.be/
  • 5 VVSG - Vlaamse Vereniging voor Steden en Gemeenten. The topic of Chatbots in Natural language processing in Flemish Municipalities is investigated by VVSG. The latter organised a workshop on the topic on November 8th, 2019.
    https://www.vvsg.be/
  • 6 GDPR legal text
    https://gdpr-info.eu/
  • 7 EC Liability of defective products
    https://ec.europa.eu/growth/single-market/goods/free-movement-sectors/liability-defective-products_en