AI Aansprakelijkheid richtlijn
De Europese Commissie heeft op 28 september haar voorstel voor een richtlijn over aansprakelijkheid voor AI gepubliceerd. De reden hiervoor is namelijk dat het voor een slachtoffer die schade heeft geleden door een fout van een AI systeem heel moeilijk kan zijn om te bewijzen dat er überhaupt een fout is gemaakt. De bewijslast kan het voor slachtoffer onmogelijk maken om aansprakelijkheid aan te tonen, laat staat een schadevergoeding te krijgen. Om dit op te lossen zouden nationale rechters bestaande regels over bewijslast kunnen gaan herinterpreteren, maar dat zou leiden tot 27 verschillende systemen binnen de Europese interne markt. Daarom wil de Commissie de regels voor aansprakelijkheid voor/van AI systemen standaardiseren. In dit artikel vindt u een overzicht van het voorstel.
Definities (Artikel 2)
Dit voorstel is een toevoeging op het voorstel voor de AI Act. Daarom zijn de meeste definities direct overgenomen. Een schadeclaim die binnen dit voorstel valt is gebaseerd op een fout, non-contractueel en privaatrechtelijk. De schade die gecompenseerd moet worden is veroorzaakt door de output van een AI systeem of doordat een AI systeem geen output produceerde terwijl dat wel zou moeten.
Vermoeden van non-compliance en aandragen van bewijs (Artikel 3)
Om de bewijspositie van een eiser (het slachtoffer van de fout) te verbeteren moeten rechtbanken de mogelijkheid krijgen om de verweerder (de ontwikkelaar of gebruiker van het High-risk AI systeem) te verplichten om relevante informatie over haar AI systeem over te dragen. De eiser moet wel eerst zelf hebben geprobeerd om de informatie te krijgen van de verweerder. Rechtbanken moeten daarnaast de mogelijkheid krijgen om, op verzoek van een eiser, de verweerder te verplichten om deze relevante informatie te bewaren.
Als een verweerder geen gehoor geeft aan het bevel van een rechtbank om bewijs over te dragen of te bewaren, dan zal een rechtbank aannemen dat de verweerder non-compliant was in haar zorgplicht tegenover het slachtoffer. Een verweerder kan dit vermoeden wel weerleggen.
Weerlegbare aanname van causaal verband bij een fout (Artikel 4)
Een rechtbank zal aannemen, voor het toepassen van aansprakelijkheidsregels, dat er een causaal verband is tussen de fout van de verweerder en de output van het AI systeem als aan de volgende voorwaarden is voldaan:
- De eiser heeft aangetoond – of de rechtbank heeft aangenomen – dat de verweerder een fout heeft begaan door non-compliance met betrekking tot een zorgplicht tegenover het slachtoffer.
- Het is aannemelijk dat de fout de output van het AI systeem heeft beïnvloedt.
- De eiser heeft aangetoond dat de output van het AI systeem heeft geleden tot schade.
Als de claim tegen een gebruiker of producent van een High-risk AI systeem is gericht, dan moet de verweerder tekort zijn geschoten in diens verplichtingen onder hoofdstuk 2 en 3 van de AI Act om aan te kunnen tonen dat er sprake is van non-compliance onder voorwaarde 1.
Als de eiser kan aantonen dat de verweerder met een High-risk AI systeem de instructies niet heeft gevolgd of data heeft gebruikt die niet relevant zijn voor het doel van het systeem, dan is er voldaan aan voorwaarde 1.
Als de verweerder aan kan tonen dat het voor de eiser mogelijk is om het causale verband zelf te bewijzen, kan de rechtbank het vermoeden buiten aanmerking laten. Andersom kan de rechtbank het vermoeden ook toepassen op AI systemen die niet High-risk zijn, maar waarbij het wel vrij moeilijk is voor de eiser om een causaal verband aan te tonen.
De verweerder heeft ook hier het recht om het vermoeden te weerleggen.
Conclusie
Met dit voorstel koppelt de Commissie de bewijslast voor fouten door AI systemen heel duidelijk aan de documentatie eisen voor High-risk AI systemen. Als een verweerder de documentatie van haar systeem niet op orde heeft, dan leidt dit tot een vermoeden van non-compliance en misschien ook van een causaal verband. Hiermee wordt de eiser enorm geholpen want dit bespaart tijd. Ook vult de commissie met dit voorstel een gat in de AI Act. Door Artikel 3 krijgt een eiser namelijk het recht om inzicht te krijgen in de documentatie van een AI systeem voor het vaststellen van aansprakelijkheid.
Dit voorstel voor een richtlijn zorgt voor een extra reden om de documentatie van je AI systemen op orde te hebben en maakt schadevergoeding toegankelijker voor slachtoffers van fouten van AI systemen. Met name gedurende het proces van de ontwikkeling van AI systemen is daarom steeds belangrijker om na te denken over compliance by design, voordat een systeem op de markt wordt gebracht.
Voor vragen of het effect van de nieuwe AI regels op uw bestaande dan wel toekomstige AI systemen kunt u altijd contact met ons opnemen. Onze expert Jos van der Wijst helpt u graag.