beleidsmonitor

NAVO – NAVO AI Strategie

De NAVO AI strategie schetst hoe AI op een ethische manier kan worden toegepast op het vlak van defensie en veiligheid. Er worden enkele beginselen voor verantwoord gebruik van AI-technologieën vastgelegd, in overeenstemming met het internationale recht en de waarden van de NAVO(-lidstaten). Verder gaat de strategie ook in op de bedreigingen die het gebruik van AI door vijanden met zich meebrengt en hoe een solide samenwerking met de (private) innovatiegemeenschap op het gebied van AI tot stand kan worden gebracht.

Wat: Beleidsoriënterend document

Impactscore: 4

Voor wie: beleidsmakers en ontwikkelaars van AI (met dual-use toepassingen)

URL: https://www.nato.int/cps/en/na...

Samenvatting

De strategie begint met het uiteindelijke doeleinde ervan duidelijk te maken: het behouden van de technologische voorsprong van de NAVO over andere mogendheden. Daartoe worden er vier beperktere doelen voorop gesteld:

  • Het aansporen van een verantwoorde ontwikkeling en gebruik van AI voor defensie en veiligheid door de geallieerden
  • Het versnellen en het populariseren van AI-gebruik binnen de alliantie
  • Het beschermen en in het oog houden van onze AI-technologie en ons vermogen om te innoveren
  • Het identificeren van en beschermen tegen bedreigingen die voortvloeien uit kwaadwillig gebruik door staten of andere organisaties.

Nog op het algemene niveau stelt de NAVO zich voor als het transatlantisch forum bij uitstek om gebruik van AI in defensie en veiligheid te bespreken.

Principes

Vervolgens worden er zes principes afgekondigd die rekening houden met de bestaande (nationale) initiatieven door de geallieerden en eerder werk op internationaal niveau. De NAVO beschouwt deze principes als het uitgangspunt voor latere, meer specifieke richtlijnen en als basis voor het gebruik van AI voor defensie en veiligheid door de geallieerden. De principes zijn:

  1. Lawfulness: betekent dat AI-toepassingen moeten opereren binnen het bestaande wettelijke kader
  2. Responsibility and accountability: betekent dat AI-toepassingen op een verantwoorde manier tot stand moeten komen en dat er sprake moet zijn van duidelijke menselijke verantwoordelijkheid. Zo belooft de NAVO om de gepaste risico- en impactbeoordelingen te doorlopen alvorens AI-systemen in gebruik te nemen.
  3. Explainability and traceability: AI-toepassingen moeten begrijpbaar en transparant zijn, bijvoorbeeld door middel van het gebruik van review-methodes en procedures (bv. door beoordelings- en/of validatiemechanismen op NAVO of nationaal niveau)
  4. Reliability: AI-toepassingen moeten met een duidelijk gedefinieerd gebruik worden ontwikkeld. Het testen van de veiligheid en robuustheid van toepassingen dient te gebeuren doorheen de hele levensduur, rekening houdende met het vooropgestelde gebruik, en kan door middel van (te ontwerpen) NAVO of nationale certificeringsprocedures. Hier valt ook onder dat NAVO AI-toepassingen moeten worden beschermd tegen vijandige manipulatie.
  5. Governability: AI-toepassingen moeten in overeenstemming met het vooropgestelde gebruik aangewend worden en moeten de gepaste mens-machine interactie toelaten, het mogelijk maken om ongewenste gevolgen op te sporen en te voorkomen en het mogelijk maken om hun werking te onderbreken en stop te zetten bij ongewenst gedrag.
  6. Bias mitigation: Er moeten stappen ondernomen worden om ongewenste vooroordelen in datasets en de ontwikkeling en gebruik van AI te minimaliseren. De strategie verduidelijkt in dat verband verder dat er in eerste instantie zal gewerkt worden om vooroordelen met betrekking tot individuele eigenschappen, zoals gender of etniciteit te minimaliseren.

Deze principes dienen doorheen de hele levensduur van een AI-toepassing te worden toegepast.

Praktisch

Doorheen de strategie wordt verschillende keren het belang van interoperabiliteit van AI-technologieën benadrukt en hoe de afkondiging van gemeenschappelijke principes daartoe bijdraagt. Met dat oogmerk wordt dan ook op verschillende plaatsen in het document de nadruk gelegd op het belang van samenwerking tussen niet alleen de geallieerden, maar ook met de academische en private sector. Verder plant de NAVO om zowel sterke technische als beleidsprofielen aan te trekken, een veilige data-omgeving te creëren en de gepaste cyberveiligheidsmaatregelen te ondernemen.

De strategie stelt verder dat NAVO AI testcentra best practices in dat verband (interoperabiliteit en informatieveiligheid) zullen ontwikkelen en dat de NAVO met internationale standaardiseringsorganisaties zal samenwerken om coherentie te waarborgen tussen militaire en burgerlijke standaarden voor AI.

Tot slot stelt de NAVO ook twee gerelateerde initiatieven in het vooruitzicht. Enerzijds zal DIANA (“Defence Innovation Accelerator for the North Atlantic”) worden uitgewerkt, waarbinnen nationale AI testcentra een rol zullen krijgen. Anderzijds plant de NAVO ook een “Data Exploitation Framework Policy” op te stellen.