De AI Act raakt wetenschappelijk onderzoek: meer verplichtingen dan gedacht
Veel onderzoekers gaan er vanuit dat de EU AI Act niet van toepassing is op hun wetenschappelijke werk. Een recente analyse van Wernick & Meding van 3 juni 2025 laat echter zien dat deze aanname niet altijd klopt.
De Artificial Intelligence Act (AI Act), aangenomen in juli 2024, is de eerste grootschalige wetgeving die AI reguleert op basis van risicocategorieën. Denk aan verboden AI-systemen, high-risk AI en General Purpose AI models (GPAI). De wet bevat uitzonderingen voor wetenschappelijk onderzoek, maar in de praktijk blijken deze uitzonderingen beperkt toepasbaar.
Wanneer raakt de AI Act het onderzoek?
De AI Act stelt verplichtingen aan aanbieders van AI-systemen, zodra die op de Europese markt beschikbaar worden gesteld of in gebruik worden genomen – zelfs gratis en zelfs door universiteiten of onderzoeksinstellingen. Veelgebruikte handelingen binnen AI-onderzoek, zoals het uploaden van modellen naar GitHub of Hugging Face, kunnen worden gezien als het “op de markt brengen” van AI-modellen. Daarmee kunnen onderzoekers onbedoeld onder het toepassingsbereik van de wet vallen.
Voorbeelden:
- Een universiteit die een model voor gezichtsherkenning ontwikkelt en publiceert kan vallen onder verboden AI-systemen.
- Onderzoek naar AI voor medische apparaten of onderwijs kan worden gezien als high-risk AI, waarvoor een risicobeheerssysteem, documentatieverplichtingen en meldplichten gelden.
- Het publiceren van een Large Language Model (LLM), zelfs open source, valt mogelijk onder de verplichtingen voor GPAI. Deze verplichtingen worden verder uitgewerkt in een Code of Practice.
Maar er zijn toch uitzonderingen?
De AI Act bevat inderdaad uitzonderingen voor:
- Wetenschappelijk onderzoek (artikel 2(6))
- Productgericht onderzoek en ontwikkeling (artikel 2(8))
- Open source modellen (artikel 2(12))
Toch blijkt uit de analyse van Wernick & Meding dat deze uitzonderingen niet altijd passen bij de praktijk. Zo is het criterium dat een AI-systeem alleen voor wetenschappelijk onderzoek ontwikkeld en gebruikt moet zijn, vaak niet te garanderen – zeker niet in samenwerkingen met bedrijven of wanneer er publieke toegang is tot het model. Ook geldt de open source uitzondering niet voor high-risk en systemisch risicovolle GPAI modellen.
Concrete risico’s voor onderzoekers
- Boetes voor overtreding kunnen oplopen tot 35 miljoen euro (artikel 99 AI Act).
- Onzekerheid over of het publiceren van een model als ‘markttoegang’ wordt beschouwd.
- Vage definities, zoals het verschil tussen een AI-systeem en AI-model.
Wat betekent dit in de praktijk?
Onderzoekers moeten zich bewust zijn van:
- De classificatie van hun systeem: verboden, high-risk, of GPAI.
- Of hun publicaties mogelijk onder ‘in gebruik nemen’ of ‘op de markt brengen’ vallen.
- Of uitzonderingen wel van toepassing zijn.
Tip: Plaats bij publicaties een duidelijke vermelding dat het model uitsluitend bedoeld is voor wetenschappelijk gebruik, niet geschikt is voor risicovolle toepassingen, en dat elke andere toepassing een significante wijziging van het doel betekent.
Bent u actief in AI-onderzoek, bijvoorbeeld binnen een universiteit, R&D-afdeling of samenwerkingsverband? Dan is het essentieel om te beoordelen of uw werk onder de AI Act valt.
Wij adviseren over:
- Toepasselijkheid van de AI Act op uw onderzoeksproject
- Publicatiepraktijken en disclaimers voor AI-modellen
- Juridische risico’s bij samenwerking met commerciële partners
- Interpretatie van uitzonderingen in de AI Act
BG.legal is gespecialiseerd in het juridisch duiden van nieuwe wet- en regelgeving. Wij helpen organisaties om vooruit te kijken en compliant te blijven. Met ruime ervaring in digitale wetgeving zijn wij uw partner voor AI-juridisch advies.
Neem contact op via wijst@bg.legal voor een vrijblijvend gesprek of quickscan.