Nieuwe Europese regels voor artificial intelligence

21 apr 2021

Op 21 april 2021 heeft de Europese Commissie een voorstel gepresenteerd met nieuwe regels voor Artificial Intelligence (AI/kunstmatige intelligentie).

In dit eerste artikel worden de hoofdlijnen toegelicht.

Waarom nieuwe regels?

AI wordt al breed gebruikt, vaak zonder dat we het zelf in de gaten hebben. De meeste AI systemen vormen geen risico voor gebruikers. Maar dat geldt niet voor alle AI systemen. De bestaande regelgeving is onvoldoende om de veiligheid van gebruikers en de fundamentele rechten te waarborgen. Daardoor kan het vertrouwen in AI in gevaar komen.

Welke risico categorieën?

De Europese Commissie stelt een ‘risk-approach’ aanpak voor met vier risiconiveaus:

  1. onacceptabel risico

Een zeer beperkt aantal AI toepassingen worden aangemerkt als een onacceptabel risico. Deze gaan in tegen fundamentele rechten en worden om die reden verboden. Als voorbeeld noemt de commissie het sociaal labellen van burgers door overheden en op afstand biometrisch identificeren in de publieke ruimte. Op dit laatste zijn een paar uitzonderingen gemaakt.

  1. hoog risico

Een iets groter aantal AI toepassingen vormt een hoog risico. Deze worden beschreven in het voorstel. Zij vormen een hoog risico omdat zij een impact hebben op de fundamentele rechten. De opsomming van deze AI toepassingen kan periodiek worden aangepast.

Deze AI toepassingen moeten aan een aantal verplichte voorwaarden voldoen. Deze voorwaarden omvatten kwaliteitseisen aan de gebruikte dataset, technische documentatie, transparantie en informatieverstrekking aan gebruikers, menselijk toezicht, en robuustheid, accuratesse en cybersecurity. Nationale toezichthouders krijgen hier onderzoeksrechten.

  1. beperkt risico

Voor een grotere groep AI-toepassingen geldt een beperkt risico. Hier kan worden volstaan met transparantie. De commissie noemt hier als voorbeeld chatbots. Gebruikers moeten weten dat zij communiceren met een chatbot.

  1. minimaal risico

Voor alle andere AI toepassingen geldt dat de bestaande wet- en regelgeving afdoende is. Verreweg de meeste van de huidige AI toepassingen vallen in deze categorie.

Hoe classificeer je AI producten?

De commissie komt met een methodiek om AI toepassingen in te delen in een van de vier risico niveaus. Het doel daarvan is om zekerheid te bieden voor ondernemingen en anderen. Het risico wordt beoordeeld op basis van het beoogde gebruik. Dit betekent dat gekeken wordt naar:

- het beoogde doel
- het aantal potentieel geraakte personen
- de afhankelijkheid van de uitkomst
- de onomkeerbaarheid van de schade.

Wat zijn de gevolgen voor hoog risico AI systemen?

Voordat deze AI systemen gebruikt mogen worden moet een onderzoek worden uitgevoerd naar het voldoen aan de regelgeving. Uit dat onderzoek moet blijken dat het AI systeem compliant is ten aanzien van de vereisten op het gebied van data kwaliteit, documentatie en traceerbaarheid, transparantie, menselijk toezicht, accuratesse en robuustheid. Voor sommige AI systemen zal een ‘notified body’ ingeschakeld moeten worden. Voor deze AI systemen moet ook een risk management systeem worden opgezet door de leverancier.

Wie gaat handhaven?

De Lid-Staten zullen een autoriteit moeten aanwijzen die gaan toezien op de naleving.

Gedragscodes

Leveranciers van high-risk AI systemen kunnen een vrijwillige gedragscode maken voor de veilige toepassing van AI systemen. De commissie stimuleert de industrie om hiermee te komen.

Wie is aansprakelijk bij import van AI systemen?

De importeur in de EU van AI systemen is verantwoordelijk voor het ingevoerde AI systeem. Hij moet ervoor zorgen dat de producent voldoet aan EU regelgeving en een CE markering heeft.

Wat is de sanctie?

Het overtreden van deze regelgeving kan worden beboet met een geldboete van maximaal 6% van de jaaromzet in het voorafgaande kalenderjaar.

Dit was een eerste analyse van het commissievoorstel. Later volgt een nadere analyse. Later volgt ook een analyse van de voorgestelde nieuwe regeling voor machines.

Voor meer informatie over juridisch/ethische aspecten van AI ontwikkelen wij LegalAIR. Dit platform gaat praktische informatie en tools geven hoe om te gaan met AI en AI systemen.

Voor meer vragen neemt u contact op met Jos van der Wijst (wijst@bg.legal).

Jos van der Wijst