AI-hallucinaties en aansprakelijkheid bij gebruik van ChatGPT

07 jul 2025

AI-hallucinaties en aansprakelijkheid bij gebruik van ChatGPT: Amerikaanse rechter spreekt OpenAI vrij.

Een recente uitspraak van de rechtbank in de Amerikaanse staat Georgia zet een belangrijke juridische toon in de wereld van generatieve AI. In de zaak Walters v. OpenAI, LLC oordeelde de rechter dat OpenAI niet aansprakelijk is voor foutieve, verzonnen output van ChatGPT — ook wel bekend als een “AI-hallucinatie”.

De casus: ChatGPT beschuldigt onterecht een journalist

Radiohost en wapenrechtenactivist Mark Walters stapte naar de rechter nadat ChatGPT hem ten onrechte had beschuldigd van verduistering van gelden bij de Second Amendment Foundation (SAF). Deze verzonnen beschuldiging ontstond nadat een journalist ChatGPT vroeg een rechtszaak samen te vatten waarin de SAF betrokken was. ChatGPT gaf aanvankelijk correcte samenvattingen van ingevoerde tekst, maar toen enkel een link werd gedeeld, hallucineerde het model een fictieve aanklacht tegen Walters.

Hoewel de journalist het antwoord niet publiceerde, startte Walters een rechtszaak wegens smaad en laster. De rechter wees alle vorderingen af: ChatGPT’s output was geen feitelijke publicatie, de journalist had geen schade geleden, en er was geen sprake van opzet of nalatigheid. Bovendien werden de duidelijke disclaimers van OpenAI — waarin wordt gewaarschuwd voor mogelijk onjuiste informatie — zwaar meegewogen. De volledige uitspraak is te vinden via Courthouse News Service.

Een bredere juridische boodschap over AI-disclaimers en verantwoordelijkheid

Deze uitspraak is juridisch gebaseerd op het recht van de staat Georgia, maar heeft mogelijk implicaties die veel breder reiken. Zoals besproken door Loeb & Loeb LLP, bevestigt de zaak dat aanbieders van AI-tools niet automatisch aansprakelijk zijn voor de inhoud die hun systemen genereren, zolang zij transparant zijn over de beperkingen van hun technologie.

Volgens Reuters en Brown Rudnick onderstreept het oordeel dat gebruikers een actieve rol moeten blijven spelen bij het controleren van AI-uitvoer, zeker wanneer het om juridische, journalistieke of zakelijke toepassingen gaat.

Relevantie voor Nederlandse bedrijven en de de AI Act

Hoewel het om een Amerikaanse uitspraak gaat, is de casus ook relevant voor Nederlandse organisaties die AI inzetten in communicatie, juridische ondersteuning, klantenservice of data-analyse. De uitspraak benadrukt het belang van:

– Heldere AI-disclaimers in je dienstverlening
– Menselijke controle op AI-output
– Juridische toetsing van AI-toepassingen in het licht van de AI Act

Met de komst van Europese regelgeving zoals de AI Act, de Digital Services Act en de Data Act, is het essentieel dat organisaties nu al anticiperen op de toenemende eisen rondom transparantie, aansprakelijkheid en risicobeheersing bij inzet van AI.

Wat kun je doen?

Gebruik je of overweeg je het gebruik van generatieve AI in jouw organisatie? Dan is het verstandig om juridisch advies in te winnen over:

– Het opstellen van disclaimers en gebruikersvoorwaarden voor AI-tools
– Aansprakelijkheidsbeperking bij AI-gedreven dienstverlening
– Naleving van de AI Act en andere Europese regelgeving
– Risico-inschatting bij gebruik van externe AI-systemen zoals ChatGPT

Neem gerust contact met mij op via wijst@bg.legal of LinkedIn, en ik help je met een juridische scan of strategisch advies over verantwoord AI-gebruik.

Jos van der Wijst