Impact Assessment Mensenrechten en Algoritmes

27 jun 2022

Het kabinet is de afgelopen tijd bezig geweest met het ontwikkelen van instrumenten om overheden en bedrijven die AI-toepassingen gebruiken te ondersteunen. Een van deze instrumenten is de Impact Assessment Mensenrechten en Algoritmes (IAMA). De IAMA is een instrument bedoeld voor de discussie en besluitvorming over de inzet van AI-toepassingen bij de overheid en is gemaakt door onderzoekers van de Universiteit Utrecht. Op 29 maart 2022 heeft de Tweede Kamer een motie aangenomen waarmee ze de regering verzoekt om het verplicht te maken om nieuwe algoritmes te beoordelen met de IAMA.

Hoe is de IAMA ingericht?

De IAMA bestaat uit een grote hoeveelheid vragen, onderverdeeld in vier stappen. De vier stappen zijn Waarom, Wat, Hoe en Mensenrechten. Iedere stap bestaat uit meerdere onderdelen en is gebouwd op een aantal brondocumenten. Voor ieder vraag is er een toelichting opgenomen over het doel van de vraag en welke betrokken personen er nodig zijn om de specifieke vraag goed te beantwoorden.

Stap 1: Waarom?

In de eerste stap van de IAMA gaat het om de reden voor het gebruiken van een AI-toepassing. Waarom wordt er gekeken naar een AI-toepassing, welke redenen zitten daarachter en wat is het doel? Welke waarden worden er gediend door de inzet van het systeem en welke komen er door het gebruik in het gedrang? De antwoorden op deze vragen vormen de antwoorden in de latere stappen.

Stap 2: Wat?

Deze stap is onderverdeeld in twee delen: invoer en doorvoer. Bij invoer gaat het om de data die gebruikt gaat worden en de voorwaarden voor het gebruik van die data. Daarnaast wordt er ook gekeken naar de beveiliging en archivering van de data en de AI-toepassing. Bij doorvoer  staat het onderliggende model van de AI-toepassing centraal. Wat voor een type model gaat er gebruikt worden, wie neemt er verantwoordelijkheid voor en wanneer zijn de resultaten goed genoeg? Daarnaast wordt er ook gekeken naar of de uitkomsten uitlegbaar moeten zijn en zo ja, aan wie dan?

Stap 3: Hoe?

In de derde stap van de IAMA gaat de focus van de effecten van de output van de AI-toepassing en de rol van de AI-toepassing in het beslissingsproces. Daarnaast worden hier ook vragen gesteld over de verantwoordelijkheden van de mensen die met de AI-toepassing moeten werken. Ook wordt er aandacht besteedt aan de communicatie over de toepassing. Als afsluiting wordt er gekeken naar toekomstige evaluaties en de archivering van de toepassing.

Stap 4: Mensenrechten

In de laatste stap van de IAMA gaat over mensenrechten. In deze stap worden er eerst grondrechten geïdentificeerd die mogelijk worden aangetast door de AI-toepassing. Vervolgens wordt er per grondrecht op een gestructureerde manier gekeken naar de ernst van de aantasting, de noodzakelijkheid ervan en uiteindelijk en belangenafweging tegenover andere belangen.

Conclusie

De Tweede Kamer ziet de beoordeling van algoritmes met de IAMA als een middel om misbruik van algoritmes tegen te gaan of zelfs te voorkomen. Daarom beoogt de motie ook om de beoordeling van algoritmes voor de hele overheid verplicht te maken als een toekomstig algoritme mensen evalueert of beslissingen over mensen maakt.

De IAMA biedt organisaties een gestructureerde manier om hun AI-toepassing te beoordelen en zo in een vroeg stadium risico’s te signaleren. Met een ingevulde en nauwkeurige IAMA in hand kunt u aan uw klanten laten zien dat u bewust bezig bent met de verantwoorde inzet van AI-toepassingen en tegenover de Autoriteit Persoonsgegevens laat het uw overwegingen zien en de stappen die u hebt genomen om de risico’s van uw systeem te minimaliseren.

Wij bieden begeleiding aan bij het uitvoeren van een IAMA. Hiervoor kunt u contact opnemen met Frederick Droppert (droppert@bg.legal)

Frederick Droppert 1