Uitvoeren van IAMA: essentieel bij inzet algoritmes.
Impact Assessment Mensenrechten en Algoritmes
Sinds de aangenomen motie om een Impact Assessment Mensenrechten en Algoritmes (IAMA) verplicht te maken voor de overheid om hun algoritmen te beoordelen, zijn IAMA’s steeds belangrijker geworden voor zowel de overheid als voor bedrijven. Zo stelt bijvoorbeeld het voorstel van de AI-Act IAMA’s verplicht voor AI-systemen met een hoog risico.
Inmiddels gebruiken kleine en grote gemeenten al IAMA’s om algoritmes te beoordelen en loopt er een pilot vanuit de overheid die overheidsinstanties leert om IAMA's toe te passen. Benieuwd naar wat een IAMA inhoudt? Lees dan verder.
Hoe is de IAMA ingericht?
De IAMA bestaat uit een grote hoeveelheid vragen, onderverdeeld in vier stappen. De vier stappen zijn Waarom, Wat, Hoe en Mensenrechten. Iedere stap bestaat uit meerdere onderdelen en is gebouwd op een aantal brondocumenten. Voor ieder vraag is er een toelichting opgenomen over het doel van de vraag en welke betrokken personen er nodig zijn om de specifieke vraag goed te beantwoorden.
Stap 1: Waarom?
In de eerste stap van de IAMA gaat het om de reden voor het gebruiken van een AI-toepassing. Waarom wordt er gekeken naar een AI-toepassing, welke redenen zitten daarachter en wat is het doel? Welke waarden worden er gediend door de inzet van het systeem en welke komen er door het gebruik in het gedrang? De antwoorden op deze vragen vormen de antwoorden in de latere stappen.
Stap 2: Wat?
Deze stap is onderverdeeld in twee delen: invoer en doorvoer. Bij invoer gaat het om de data die gebruikt gaat worden en de voorwaarden voor het gebruik van die data. Daarnaast wordt er ook gekeken naar de beveiliging en archivering van de data en de AI-toepassing. Bij doorvoer staat het onderliggende model van de AI-toepassing centraal. Wat voor een type model gaat er gebruikt worden, wie neemt er verantwoordelijkheid voor en wanneer zijn de resultaten goed genoeg? Daarnaast wordt er ook gekeken naar of de uitkomsten uitlegbaar moeten zijn en zo ja, aan wie dan?
Stap 3: Hoe?
In de derde stap van de IAMA gaat de focus van de effecten van de output van de AI-toepassing en de rol van de AI-toepassing in het beslissingsproces. Daarnaast worden hier ook vragen gesteld over de verantwoordelijkheden van de mensen die met de AI-toepassing moeten werken. Ook wordt er aandacht besteedt aan de communicatie over de toepassing. Als afsluiting wordt er gekeken naar toekomstige evaluaties en de archivering van de toepassing.
Stap 4: Mensenrechten
In de laatste stap van de IAMA gaat over mensenrechten. In deze stap worden er eerst grondrechten geïdentificeerd die mogelijk worden aangetast door de AI-toepassing. Vervolgens wordt er per grondrecht op een gestructureerde manier gekeken naar de ernst van de aantasting, de noodzakelijkheid ervan en uiteindelijk en belangenafweging tegenover andere belangen.
Conclusie
De IAMA biedt organisaties een gestructureerde manier om hun AI-toepassing te beoordelen en zo in een vroeg stadium risico’s te signaleren. Met een ingevulde en nauwkeurige IAMA in hand kunt u aan uw klanten laten zien dat u bewust bezig bent met de verantwoorde inzet van AI-toepassingen en tegenover de Autoriteit Persoonsgegevens laat het uw overwegingen zien en de stappen die u hebt genomen om de risico’s van uw systeem te minimaliseren.
Aangezien zowel de Tweede Kamer als de Europese wetgever de IAMA als een waardevol middel ziet om misbruik van algoritmes tegen te gaan of zelfs te voorkomen, is het zeker de moeite waard om te onderzoeken of IAMA's binnen uw organisatie ingezet kunnen worden.
Wij bieden begeleiding aan bij het uitvoeren van een IAMA. Hiervoor kunt u contact opnemen met Jos van der Wijst.