Aanbevelingen aansprakelijkheid bij AI
Er is een luide roep van bedrijven die met kunstmatige intelligentie (“AI”) werken om meer duidelijkheid te verschaffen over aansprakelijkheidsrisico’s bij het gebruik en het creëren van AI. Het Europees Parlement heeft op 20 oktober 2020 aanbevelingen gedaan voor nieuwe wetgeving die meer duidelijkheid moet bieden over aansprakelijkheidsrisico’s. In dit artikel treft u de belangrijke onderdelen.
Een risico dat zich in de praktijk kan voordoen, is dat een AI gestuurde activiteit schade berokkent, terwijl de activiteit niet of nauwelijks kan worden toebedeeld aan een specifiek persoon. De vraag die zich dan opwerpt, is welke partij aansprakelijk is voor de geleden schade. Het Europees Parlement stelt voor om in dit soort gevallen aansluiting te zoeken bij de productaansprakelijkheid. Tegelijkertijd merkt het Europees Parlement op dat de benadeelde partij onder de huidige regeling met een flinke bewijslast wordt opgezadeld. Dit vraagt om een aanpassing van de bestaande regels van productaansprakelijkheid.
Operator
Het Europees Parlement neemt tot uitgangspunt dat de operator van het AI-systeem aansprakelijk is voor schade die door het AI-systeem wordt berokkent. Het onderscheidt twee typen operators, die beiden (naast elkaar) aansprakelijk kunnen zijn: een frontend- en een backend operator.
De definitie van een frontend operator luidt: “een natuurlijke persoon of rechtspersoon die een mate van controle over een risico in verband met de werking van het AI-systeem uitoefent en die baat heeft bij de werking van het AI-systeem.”
De definitie van een backend operator luidt: “de natuurlijke of rechtspersoon die doorlopend de kenmerken van de technologie definieert en gegevens en een essentiële backendondersteuning biedt, en daardoor ook een zekere mate van controle uitoefent over het risico dat aan de werking van het AI-systeem verbonden is.”
Lijst van AI-systemen
AI-systemen dienen (naast de productveiligheid) te worden getest op risico’s. De AI-systemen waaraan een hoog risico kleeft, worden vervolgens opgenomen in een uitputtende lijst. Deze lijst wordt elk half jaar vernieuwd. Daarbij wordt een beoordeling gemaakt op welke wijze de data geraadpleegd en gebruikt kunnen worden. Als een AI-systeem nog niet is beoordeeld, kan het evengoed in de lijst worden opgenomen als het AI-systeem herhaaldelijk schade heeft veroorzaakt.
Schade en verzekering
Naast materiële schade stelt het Europees Parlement voor dat ook significante immateriële schade vergoed moet kunnen worden. Verder ziet het een belangrijke rol weggelegd voor verzekeraars. Immers verzekert een adequate aansprakelijkheidsdekking het publiek ervan dat de nieuwe technologie kan worden vertrouwd. Aangezien er nog weinig gegevens bekend zijn van schadegevallen als gevolg van AI-systemen dient de Commissie nauw samen te werken met de verzekeringsbranche om verzekeringspolissen te creëren met een passende dekking. Operators die werken met een in de lijst opgenomen AI-systeem zijn verplicht om een aansprakelijkheidsverzekering af te sluiten.
Tot slot
De roep om met wetgeving voor het gebruik van AI-systemen wordt gehoord. De wetgevingsprocessen staan niet stil.
Heeft u vragen over de aansprakelijkheid van schade als gevolg van een AI-systeem, neem dan gerust contact met ons op.