Raad van de Europese Unie stemt in met tekst van AI Act (AI-verordening)

07 dec 2022

Op 6 december 2022 heeft de Raad van de Europese Unie (hierna: ‘de Raad’) een algemene oriëntatie (general approach) bereikt ten aanzien van de huidige tekst van het voorstel tot een AI Act (AI-verordening). Dit is doorgaans de eerste stap in het Europese wetgevingsproces. Het Europees Parlement zal hierna nog moeten stemmen over de definitieve versie van het voorstel. Dit zal naar alle waarschijnlijkheid in maart 2023 gebeuren.

Wijzigingen

Voorafgaand aan de vergadering van de Raad zijn er nog een aantal wijzigingen in de tekst van de AI-verordening aangebracht. Hierna worden de belangrijkste wijzigingen nader toegelicht.

Definitie van AI

Voorkomen moet worden dat ook traditionele software onder de reikwijdte van de AI-verordening valt. Daarom is in de nieuwe tekst van de AI-verordening een minder ruime definitie van het begrip ‘AI’ opgenomen. De verordening ziet nu enkel op systemen die zijn ontworpen om met enige mate van zelfstandigheid een bepaald doel te realiseren doormiddel van machine learning of een op logica/kennis gebaseerde benadering, waarbij data wordt gebruikt om een bepaalde output te genereren.  Daarbij kan gedacht worden aan bepaalde content, voorspellingen, recommandaties en/of beslissingen.[1]

General Purpose AI

Er bestaan ook generieke AI-toepassingen die niet specifiek bestemd zijn voor één bepaald doel. Dit wordt ook wel General Purpose AI genoemd. Dergelijke toepassingen zijn uitermate geschikt om in andere (AI)-systemen te worden verwerkt. Tijdens het wetgevingstraject kwam de vraag naar voren of de verplichtingen uit de AI Act (AI Verordening) eveneens zouden moeten gelden voor aanbieders van General Purpose AI-toepassingen, indien deze door een derde in ander AI-systeem met een hoog risico worden geïmplementeerd.

De Europese Commissie (hierna: ‘de Commissie’) zal zich over deze vraag gaan buigen. Binnen anderhalf jaar na de inwerkingtreding van de AI Act (AI-verordening), zal de Commissie niet alleen een openbare raadpleging (public consultation) over dit onderwerp organiseren, maar ook een impact assessment verrichten naar de regels die mogelijk ook zouden moeten gelden voor General Purpose AI. In een uitvoeringsbesluit (implementing act) zal uiteindelijk worden bepaald welke regels ook daadwerklijk van toepassing zullen zijn op (aanbieders van) General Purpose AI.

Verboden en hoog-risico AI-systemen

Er zijn een aantal wijzigingen aangebracht in de verschillende risico categorieën. In de nieuwe versie van de AI Act (AI-verordening) worden subliminale technieken (i.e. stimuli die niet voor menselijke waarneming vatbaar zijn), technieken voor het uitbuiten van kwetsbaarheden en sociale kredietsystemen (ook wel ‘social scoring’ genoemd) expliciet verboden.

Wat betreft hoog-risico AI-systemen, worden er extra voorwaarden aan deze risicocategorie verbonden: het gebruik van het systeem moet niet alleen een hoog risico inhouden voor schade aan personen of bezittingen, maar de output van het systeem moet ook doorslaggevend/niet ondergeschikt zijn in het besluitvormingsproces om te kunnen worden gekwalificeerd als een hoog-risico AI-systeem.

In de bijlagen met voorbeelden van hoog-risico AI-systemen zijn ook twee nieuwe soorten AI-systemen opgenomen: AI-toepassingen die bestemd zijn voor de beveiliging, het functioneren en/of beheren van vitale (digitale) infrastructuur en AI-toepassingen die worden gebruikt voor het bepalen van (de hoogte van) het risico en/of premie bij levens- en zorgverzekeringen.

Tot slot dienen ook publieke instellingen hun hoog-risico AI-systeem in de EU-databank voor AI-systemen te registreren, voor zover dit systeem eveneens aan derden wordt aangeboden.

Verplichtingen bij hoog-risico AI-systemen

Op grond van de AI-verordening gelden er een aantal verplichtingen voor hoog-risico AI-systemen ten aanzien van de technische documentatie en de kwaliteit van de gebruikte datasets.

Deze verplichtingen worden in de nieuwe tekst van de AI-verordening nader toegelicht, waardoor het voor aanbieders/ontwikkelaars van AI-systemen eenvoudiger wordt om in overeenstemming te handelen met de AI-verordening. Bovendien zijn er een aantal nieuwe regels in de AI Act (AI verordening) opgenomen die deze verplichtingen (her)verdelen over de distributieketen. Daarbij wordt eveneens aangegeven hoe de verplichtingen uit de AI-verordening zich verhouden tot andere, sectorspecifieke wet- en regelgeving.

Toezicht en handhaving

In de nieuwe tekst van de AI Act (AI-verordening) worden de bevoegdheden van het AI-comité (AI Board) verder uitgebreid. In dat kader wordt (onder andere) een pool van deskundigen geïntroduceerd, waarop het AI-comité kan terugvallen bij specifieke kwesties.

Wat betreft handhavingsbevoegdheden en -mogelijkheden, zijn de verschillende sancties voor het MKB naar beneden bijgesteld. Daarnaast worden er nieuwe criteria geïntroduceerd voor het opleggen/berekenen van (de hoogte van) een boete.

Innovatie

In de allereerste concepttekst van de AI Act (AI-verordening) werd de regulatory sandbox al geïntroduceerd. Dit is een gecontroleerde omgeving waarin developers – onder toezicht van nationale autoriteiten – hun AI-systeem kunnen testen.

In de nieuwe tekst van de AI Act (AI-verordening) wordt ook de mogelijkheid geboden om het AI-systeem buiten de gecontroleerde omgeving te testen. Onder bepaalde voorwaarden mag dit ook zonder supervisie van de nationale autoriteiten. Het is nog maar de vraag hoeveel meerwaarde dit biedt, aangezien de meeste ontwikkelaars juist voor de sandbox zullen kiezen vanwege het vrijblijvende advies van de toezichthoudende autoriteiten.

Wil je op de hoogte blijven van de meest actuele ontwikkelingen op het gebied van de juridische aspecten van AI? Schrijf je dan in voor onze nieuwsbrief over de AI Act (AI-verordening). Dit kan via het onderstaande contactformulier.

Mocht je nu al vragen hebben over de juridische aspecten van AI, dan kun je uiteraard contact opnemen met Jos van der Wijst.

[1] Artikel 3 lid 1 AI Verordening

Aanmelding nieuwsbrief AI act: