Update: het gebruik van ChatGPT in de zorg

28 feb 2024

In de zorg wordt steeds meer gebruik gemaakt van kunstmatige intelligentie (ook wel AI genoemd). Eerder schreven we al over de mogelijkheden van AI, zoals ChatGPT, voor je dagelijkse praktijk als zorgverlener. In dit artikel gaan we in op de ontwikkelingen die sindsdien hebben plaatsgevonden en de (nieuwe) juridische kaders waarmee je rekening moet houden bij het gebruik van ChatGPT als zorgverlener.

AI Act

In onze eerdere blog legden we uit dat er nog geen specifieke regelgeving voor AI bestond. Daardoor was alleen algemenere regelgeving zoals de AVG, de UAVG en de MDR van toepassing op het gebruik van ChatGPT in de zorg.

Sinds begin dit jaar is de tekst van de Europese AI Act rond. De AI Act is nog niet inwerking getreden, maar dat zal naar verwachting dit voorjaar gebeuren. Vanaf dat moment gelden verschillende termijnen voordat de bepalingen daadwerkelijk van toepassing zijn. Voor general purpose systems, zoals ChatGPT, geldt er een termijn van twaalf maanden. De algemenere wet- en regelgeving blijft daarnaast van toepassing.

Wat houdt de AI Act in?

Als je als zorgverlener ChatGPT wilt gebruiken, zal je je onder andere aan de regels moeten houden die voor gebruikers van general purpose systems gelden. Zo geldt er een transparantie verplichting wanneer je een gegenereerde tekst openbaar wilt maken om het publiek te informeren. Bijvoorbeeld de uitleg van complexe gezondheidsonderwerpen in een openbare blog. Je moet dan bekendmaken dat de inhoud gemaakt is door AI, tenzij de inhoud door mensen is gecontroleerd en een persoon de redactionele verantwoordelijkheid draagt voor publicatie.

Verder is het van belang dat, gelet op de risicoclassificatie van de AI Act, ChatGPT naar waarschijnlijkheid als een general purpose AI model with systemic risk zal worden geclassificeerd. Dit betekent dat ChatGPT aan aanvullende eisen moet voldoen, zoals modelevaluaties en risicobeoordelingen. Het is als zorgverlener daarom belangrijk om je bewust te zijn van de impact die ChatGPT kan hebben.

Naast dat het vanwege het medische beroepsgeheim en de AVG niet toegestaan is om patiëntgegevens (zomaar) in ChatGPT te gebruiken, spelen de potentiële negatieve gevolgen voor de volksgezondheid ook een rol bij het gebruik van ChatGPT in de zorg. Wanneer onnauwkeurige, onbetrouwbare of onjuiste informatie wordt gegenereerd en vervolgens wordt gebruikt voor bijvoorbeeld het stellen van diagnoses, levert dit een groot risico voor de gezondheid van patiënten op. Bovendien benadrukt de AI Act het belang van het waarborgen van ieders privacy.

Dit betekent niet dat je als zorgverlener geen gebruik kan of mag maken van ChatGPT, maar voorzichtigheid is zeker geboden.

Wat zegt ChatGPT er ondertussen zelf van?

Niet alleen de regelgeving is de afgelopen tijd in ontwikkeling geweest, ChatGPT geeft inmiddels ook zelf een genuanceerder en uitgebreider antwoord op de vraag “Mag ik als zorgverlener ChatGPT gebruiken?”:

“Als zorgverlener kun je ChatGPT gebruiken als ondersteunend hulpmiddel, maar er zijn enkele belangrijke overwegingen en beperkingen:

  1. Privacy en vertrouwelijkheid: Het is cruciaal om de privacy en vertrouwelijkheid van patiëntgegevens te waarborgen. Het delen van persoonlijke gezondheidsinformatie van patiënten zonder hun toestemming kan in strijd zijn met wetgeving zoals de AVG (Algemene Verordening Gegevensbescherming) in de EU of HIPAA (Health Insurance Portability and Accountability Act) in de VS. Zorg ervoor dat je geen persoonlijke gezondheidsinformatie deelt in een omgeving die niet beveiligd is of niet voldoet aan de regelgeving.
  2. Besluitvorming en verantwoordelijkheid: ChatGPT kan algemene informatie en advies bieden op basis van de ingevoerde gegevens, maar het is geen vervanging voor professioneel medisch advies, diagnose of behandeling. Beslissingen over de zorg voor patiënten moeten altijd worden genomen door gekwalificeerde zorgverleners die de volledige context en medische geschiedenis van de patiënt kennen.
  3. Betrouwbaarheid en nauwkeurigheid: Hoewel ChatGPT getraind is op een breed scala aan informatiebronnen, kan het fouten maken of achterhaalde informatie verstrekken. Het is belangrijk om de door ChatGPT verstrekte informatie kritisch te beoordelen en te verifiëren met betrouwbare medische bronnen en richtlijnen.
  4. Regelgeving en richtlijnen: Houd rekening met de lokale en nationale regelgeving en professionele richtlijnen die van toepassing zijn op het gebruik van kunstmatige intelligentie en digitale hulpmiddelen in de gezondheidszorg.

Gebruik ChatGPT als een aanvullend hulpmiddel voor algemene informatie, educatie of ideeëngeneratie, maar vertrouw niet op het als primaire bron voor medische besluitvorming of diagnose. Het is altijd aan te raden om kritisch na te denken over de informatie die je ontvangt en deze te toetsen aan je professionele kennis en ervaring.”

Conclusie 

Generatieve AI, zoals ChatGPT, brengt de zorg tal van mogelijkheden om efficiënter en effectiever te werken. De Europese AI Act wijst ons echter op de noodzaak van voorzichtigheid en bewustzijn rond de risico’s voor de volksgezondheid en de bescherming van de privacy van patiënten. Zorgverleners kunnen profiteren van de nieuwe technologieën en mogelijkheden zolang het op een verantwoorde manier gebeurt.

Artikel is geschreven door Jody Esveldt en Noa Rubingh.

Heeft u vragen over het gebruik van AI in de zorg of heeft u andere vragen? Neem gerust contact op met een van onze medewerkers.

Jody Esveldt 1