Nieuwe EU-richtlijnen over AI-definitie en verboden AI-praktijken
De Europese Commissie heeft recent richtlijnen gepubliceerd over de definitie van AI-systemen en verboden AI-praktijken in het kader van de AI Act. Deze richtlijnen helpen te bepalen of een softwaretoepassing onder de AI-Act valt en welke AI-toepassingen verboden zijn vanwege onaanvaardbare risico’s, zoals manipulatieve technieken en sociale scoring. Dit biedt duidelijkheid voor ontwikkelaars en gebruikers van AI-systemen en helpt bij het waarborgen van ethisch en veilig AI-gebruik in Europa.
AI-Definitie: Wat valt eronder?
De nieuwe richtlijnen verduidelijken dat een AI-systeem elke softwaretoepassing is die gebruikmaakt van machine learning, logica-gebaseerde systemen of statistische benaderingen om autonome beslissingen te nemen of aanbevelingen te doen. Dit geldt ook voor toepassingen die menselijke interacties simuleren, zoals chatbots en virtuele assistenten. De definitie is breed en evolueert mee met technologische ontwikkelingen. De EU definitie lijkt op de internationaal geaccepteerde EOCD definitie.
Verboden AI-praktijken
Sinds 2 februari 2025 zijn bepaalde AI-toepassingen in de EU verboden omdat ze onaanvaardbare risico’s vormen voor de maatschappij. Voorbeelden hiervan zijn:
Sociale scoring: AI-systemen die individuen rangschikken op basis van sociaal gedrag of persoonlijke kenmerken.Manipulatieve technieken:AI die psychologische technieken gebruikt om menselijk gedrag te beïnvloeden, zoals deepfake-technologieën en verslavingsmechanismen in sociale media.Biometrische surveillance:In de meeste gevallen is real-time biometrische surveillance in openbare ruimtes verboden.
Wat betekent dit voor uw organisatie?
Voor AI-ontwikkelaars:Het is cruciaal om uw AI-systemen te evalueren aan de hand van de nieuwe definitie. Als uw toepassing als AI-systeem wordt geclassificeerd, moet deze voldoen aan de AI Act, inclusief transparantie- en veiligheidsvereisten.Voor AI-gebruikers:Controleer of de AI-tools die u inzet compliant zijn met de AI Act en dat verboden toepassingen niet in uw processen zijn geïntegreerd.Voor investeerders in AI:Beoordeel investeringsmogelijkheden kritisch op compliance met de AI Act om juridische en financiële risico’s te vermijden.
Wat te doen?
Wilt u weten of uw AI-systemen onder de nieuwe definitie vallen of voldoen aan de regels voor verboden AI-praktijken? BG.legal helpt u graag bij compliance-checks, AI policy/AI governance documenten en strategisch advies. Voor complexe AI vraagstukken werken wij samen met experts in het LegalAIR verband. Daar werken we samen met partner op het gebied van ethiek, techniek en cybersecurity. Neem vandaag nog contact met ons op om uw AI-strategie toekomstbestendig te maken.
Zie hier de producten van de AI diensten van BG.legal en van LegalAIR.