
In de zorg wordt steeds meer gebruik gemaakt van kunstmatige intelligentie (ook wel AI genoemd). Als zorgverlener ben je wellicht benieuwd naar de mogelijkheden van AI, zoals ChatGPT, voor je dagelijkse praktijk. In dit artikel (update ChatGPT artikel) gaan we dieper in op de juridische kaders waarmee je rekening moet houden bij het gebruik van ChatGPT als zorgverlener.
Hoe kan ChatGPT gebruikt worden?
- (Her)schrijven van bijvoorbeeld e-mails;
- Uitleggen van complexe (gezondheid gerelateerde) onderwerpen;
- Analyseren van sentiment en toon;
- Genereren van vragen en/of antwoorden bij een casus (van bijvoorbeeld een patiënt);
- Aanbevelen van medische hulpmiddelen.
Maar hoe zit dit juridisch?
Privacyrecht
De Verordening Medische hulpmiddelen (MDR)
Nadelen en risico’s
- Hallucinatie: ChatGPT verzint soms antwoorden en de referenties naar de bronnen die de chatbot gebruikt zou hebben, bestaan niet (altijd);
- Vooroordelen: ChatGPT lijkt vooroordelen te bevatten. Dit komt door verschillende factoren, zoals de lage kwaliteit van de gegevens of de ongeschiktheid van de chatbot voor het voorgeschotelde probleem;
- Desinformatie: Gebruikers kunnen (bewust) valse informatie invoeren in het model, ChatGPT kan deze informatie vervolgens onterecht zonder een kritisch oordeel weergeven aan de volgende gebruiker;
- Gebrek aan contextueel begrip: AI-modellen zoals ChatGPT begrijpen niet altijd de volledige context van de informatie die ze ontvangen, waardoor antwoorden onjuist of niet specifiek (genoeg) zijn.
Wat zegt ChatGPT er zelf van?
Conclusie