Het gebruik van ChatGPT in de zorg
In de zorg wordt steeds meer gebruik gemaakt van kunstmatige intelligentie (ook wel AI genoemd). Als zorgverlener ben je wellicht benieuwd naar de mogelijkheden van AI, zoals ChatGPT, voor je dagelijkse praktijk. In dit artikel (update ChatGPT artikel) gaan we dieper in op de juridische kaders waarmee je rekening moet houden bij het gebruik van ChatGPT als zorgverlener.
Hoe kan ChatGPT gebruikt worden?
ChatGPT heeft eindeloze mogelijkheden, zo ook voor de zorg. Hier zijn een aantal voorbeelden:
- (Her)schrijven van bijvoorbeeld e-mails;
- Uitleggen van complexe (gezondheid gerelateerde) onderwerpen;
- Analyseren van sentiment en toon;
- Genereren van vragen en/of antwoorden bij een casus (van bijvoorbeeld een patiënt);
- Aanbevelen van medische hulpmiddelen.
Maar hoe zit dit juridisch?
Als zorgverlener moet je continu met verschillende wetgeving rekening houden. Zo ook als je gebruik wilt maken van ChatGPT in je dagelijkse praktijk. Er bestaat (nog) geen specifieke wetgeving voor de toepassing van AI, daarom zullen we teruggrijpen op het algemene civiele recht voor een uitleg van het juridische kader.
Privacyrecht
Voor een optimale werking heeft ChatGPT gigantische hoeveelheden data nodig. Medisch relevante data zal voornamelijk afkomstig zijn uit medische dossiers van patiënten. Veel gegevens die uit deze medische dossiers komen, kunnen mogelijk worden aangemerkt als ‘persoonsgegevens’. Gegevens die iets over de gezondheid van de patiënt zeggen, vallen zelfs onder de categorie ‘bijzondere persoonsgegevens’.
Op de verwerking van de persoonsgegevens is de Algemene Verordening Gegevensbescherming (AVG) en de Uitvoeringswet AVG (UAVG) van toepassing. Daarnaast geldt voor zorgverleners het medische beroepsgeheim uit de Wet op de Geneeskundige Behandelingsovereenkomst (WGBO).
Het is belangrijk om bij het gebruik van ChatGPT geen informatie over patiënten vrij te geven. Als je dit wel doet, zonder expliciete toestemming van je patiënt, doorbreek je het medische beroepsgeheim. Indien je persoonsgegevens verstrekt aan het AI-model, wederom zonder toestemming, maak je tevens een inbreuk op de AVG.
Lees ook: AI & Privacy in de zorg, een gelukkig huwelijk?
De Verordening Medische hulpmiddelen (MDR)
Medische hulpmiddelen worden gebruikt om patiënten te behandelen en te verzorgen. Als ChatGPT wordt gebruikt voor het stellen van een diagnose of behandeling, zou het beschouwd kunnen worden als een medisch hulpmiddel, wat betekent dat de MDR van toepassing kan zijn. Dit zou verstrekkende gevolgen kunnen hebben voor de vereisten van de chatbot.
ChatGPT zegt hier zelf het volgende over: “Als AI-model ben ik geen medisch hulpmiddel in de zin van de Medical Device Regulation (MDR). Ik ben een tekstgenererend AI-model dat ontworpen is om algemene informatie en suggesties te geven. Hoewel ik kan assisteren bij het verstrekken van informatie, ben ik niet bedoeld als vervanging voor professioneel medisch advies, diagnose of behandeling.”
Vooralsnog concludeer ik dat er geen sprake is van een medisch hulpmiddel zoals bedoeld in de MDR. De ontwikkelaars van ChatGPT zullen namelijk niet de bedoeling hebben gehad om medisch hulpmiddel gebruikt te worden.
Nadelen en risico’s
Hoewel ChatGPT vele voordelen biedt, zijn er ook uitdagingen, nadelen en risico’s. Het begrijpen van de beperkingen en risico's is essentieel om verantwoord en effectief gebruik te maken van AI-modellen zoals ChatGPT. Hieronder leggen we een aantal van deze risico’s uit:
- Hallucinatie: ChatGPT verzint soms antwoorden en de referenties naar de bronnen die de chatbot gebruikt zou hebben, bestaan niet (altijd);
- Vooroordelen: ChatGPT lijkt vooroordelen te bevatten. Dit komt door verschillende factoren, zoals de lage kwaliteit van de gegevens of de ongeschiktheid van de chatbot voor het voorgeschotelde probleem;
- Desinformatie: Gebruikers kunnen (bewust) valse informatie invoeren in het model, ChatGPT kan deze informatie vervolgens onterecht zonder een kritisch oordeel weergeven aan de volgende gebruiker;
- Gebrek aan contextueel begrip: AI-modellen zoals ChatGPT begrijpen niet altijd de volledige context van de informatie die ze ontvangen, waardoor antwoorden onjuist of niet specifiek (genoeg) zijn.
Wat zegt ChatGPT er zelf van?
“Mag ik als zorgverlener ChatGPT gebruiken?” ChatGPT gaf daar het volgende antwoord op:
“Ja, als zorgverlener kun je ChatGPT gebruiken als een hulpmiddel bij het verlenen van zorg. ChatGPT is ontworpen om mensachtige interacties te simuleren en kan worden gebruikt om vragen te beantwoorden, informatie te verstrekken en algemene ondersteuning te bieden aan patiënten of andere zorgverleners. Het kan helpen bij het bieden van snelle antwoorden op veelvoorkomende vragen, het bieden van educatieve materialen of het assisteren bij het plannen van afspraken.
Het is belangrijk op te merken dat ChatGPT een AI-model is en geen vervanging kan zijn voor een persoonlijke, professionele medische beoordeling. ChatGPT kan dienen als een aanvullend hulpmiddel, maar de uiteindelijke verantwoordelijkheid en het oordeel liggen bij de zorgverlener.
Daarnaast is het belangrijk om de privacy en veiligheid van de patiëntgegevens te waarborgen. Zorg ervoor dat je voldoet aan de relevante wet- en regelgeving met betrekking tot gegevensbescherming en dat je de nodige maatregelen neemt om de vertrouwelijkheid van de informatie te waarborgen wanneer je ChatGPT gebruikt.”
Conclusie
Hoewel ChatGPT nuttig kan zijn als ondersteuning voor zorgverleners, is het belangrijk op te merken dat het geen vervanging is van diagnostische beslissingen van een zorgverlener. Menselijke betrokkenheid is van cruciaal belang om de kwaliteit van de zorg te waarborgen.
Heeft u vragen over het gebruik van AI in de zorg of heeft u andere vragen? Neem gerust contact op met een van onze medewerkers.