
Het Europees Parlement, de Lidstaten en de Europese Commissie hebben overeenstemming bereikt over de tekst van de nieuwe AI verordening (AI Act).
Wat staat er in de AI Act?
- Het ongericht schrapen van gezichtsbeelden van internet of CCTV-beelden om gezichtsherkenningsdatabases te creëren. Dit omvat dus ook praktijken zoals die van Clearview AI.
- Emotieherkenning op de werkvloer en in onderwijsinstellingen. Met uitzonderingen zoals AI systemen die herkennen dat een chauffeur in slaap is gevallen.
- AI die wordt gebruikt om de kwetsbaarheden van mensen uit te buiten (vanwege hun leeftijd, handicap, sociale of economische situatie).
- AI systemen die op individuele basis het risico voorspellen op het in de toekomst plegen van misdaden (predictive policing software)
- Onder strikte voorwaarden wordt het toegestaan dat autoriteiten met realtime gezichtsherkenningssytemen in de publieke ruimte op zoek gaan naar personen. De lijst van misdrijven is groot en omvat terrorisme, mensenhandel, seksuele uitbuiting, moord, ontvoering, verkrachting, gewapende overval, deelname aan een criminele organisatie, milieucriminaliteit.
Hoog risico AI Act
- Of een AI systeem valt onder het bereik van de AI verordening
- In welke risico-categorie een AI systeem valt
- Of een AI systeem voldoet aan de vereisten van die risico-categorie.
General purpose AI systems
AI regulatory sandbox
Boetes
Wanneer treedt de AI Act in werking?
Wat betekent dit in de tussentijd?
- Van hun AI systeem beoordelen, op basis van het beoogd gebruik, in welke risico-categorie het AI systeem valt.
- Beoordelen of het AI systeem voldoet aan de vereisten van die risico-categorie.
- Wanneer discussie mogelijk is over de vraag of het een verboden of hoog-risico categorie AI systeem is, dit laten vaststellen door een derde partij (AI risk assessment).
- Wanneer het een hoog-risico AI systeem is, voorbereiden dat het compliant zal zijn met de vereisten die de AI act stelt.
- Wanneer onduidelijk is hoe de AI act uitgelegd moet worden voor jouw AI systeem, of een bepaald aspect daarvan, overweeg je te melden voor een AI regulatory sandbox of voor real-world-testing.
- Inventariseer welke AI systemen je organisatie gebruikt. Vraag leveranciers van software of er AI is verwerkt in de software.
- Beoordeel vervolgens of AI systemen worden gebruikt die in de verboden of hoog-risico categorie vallen. Vraag zo nodig je leverancier van software om verklaringen/garanties dat er geen verboden en/of hoog-risico AI systemen worden ingezet.
- Wanneer je gebruik maakt van een verboden AI systeem, faseer dit uit. Ga op zoek naar alternatieven en beëindig het gebruik van dit AI systeem.
- Wanneer je gebruik maakt van een hoog-risico AI systeem, beoordeel of het AI systeem aan de vereisten voldoet. Daar waar het AI systeem niet aan een vereiste voldoet, zet een traject in gang om ervoor te zorgen dat het AI systeem aan de vereisten gaat voldoen. Leg deze verplichting zo mogelijk bij de leverancier van het AI systeem.
- Pas je inkoopvoorwaarden aan. Zorg dat een leverancier van hardware/software transparant is over de AI systemen die het wil gaan leveren en de risico-categorie waar het AI systeem in valt. Waarborg ook dat het AI systeem aan de vereisten blijft voldoen. De leverancier zou dit gedurende het gehele gebruik van het AI systeem moeten monitoren (post-market surveillance) en het AI systeem zo nodig aanpassen.
Hoe kunnen wij hierbij helpen?
- Uitleg
- AI risk/impact assessment
- Impact Assessment Mensenrechten en Algoritme (IAMA)
- AI policy
- AI audit