Europese perspectieven op AI medische hulpmiddelen

12 mrt 2020

De Amerikaanse Food & Drug Administration (FDA) heeft onlangs toestemming gegeven voor de marketing van software op basis van artificiële intelligentie (AI). Deze software begeleidt medische professionals bij het vastleggen van hoogwaardige echo’s van het hart, die vervolgens worden gebruikt voor het identificeren en behandelen van hartziekten. De software, Caption Guidance genaamd, is gebaseerd op een machine learning-technologie die onderscheid maakt tussen goede, bruikbare afbeeldingen en niet-acceptabele afbeeldingen. Daarnaast is de software verbonden met een op AI gebaseerde interface. Deze interface is ontworpen om niet-getrainde professionals beschreven opdrachten te geven over de bediening van de ultrasone sonde, om zo relevante afbeeldingen vast te leggen.

Deze technologie bevordert de toegang tot effectieve hartdiagnostiek door medische professionals zonder voorafgaande ervaring met ultrasone technologieën. Dit maakt deze technologie, gezien het feit dat hartziekten een van de meest bekende doodsoorzaken ter wereld zijn, een potentieel levensreddend hulpmiddel.

Sinds 2018 heeft de FDA verschillende op AI gebaseerde medische hulpmiddelen geanalyseerd en goedgekeurd. Deze nieuwe hulpmiddelen doorliepen een goedkeuringstraject alvorens op de markt te worden toegelaten, om de transparantie en nauwkeurigheid van de verschillende AI-algoritmen te analyseren.

Dit besprak de FDA in haar paper van april 2019: “Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) - Discussion Paper and Request for Feedback”. Dit heeft verdere investeringen in deze sector aangemoedigd en is het Europese scenario aan het beïnvloeden.

Zo werkt de Europese Commissie aan de ontwikkeling van multidimensionale AI-regelgeving en lijkt zij tot een conclusie te zijn gekomen over waarom en hoe deze ontwikkelingen gereguleerd dienen te worden. De High-Level Expert Group on Artificial Intelligence van de Europese Commissie heeft dit in april 2019 vastgelegd in haar publicatie ‘Ethics Guidelines for Trustworthy AI’. De aanbevelingen uit deze publicatie zien onder andere op ethiek, rechtmatigheid en degelijkheid vanuit een technisch en maatschappelijk oogpunt.

Specifiek met betrekking tot de gezondheidssector bepaalt verordening (EU) 2017/745 (verordening betreffende medische hulpmiddelen), welke vanaf mei 2020 volledig van toepassing zal zijn, dat softwareprogramma's gemaakt met de duidelijke intentie om te worden gebruikt voor medische doeleinden als medisch hulpmiddel worden beschouwd. AI-gebaseerde gezondheidstechnologieën, die helpen om te beslissen over de behandeling van ziekten door voorspelling of prognose, vallen daarom meestal onder deze definitie.

Hoewel verschillende sectoren aandringen op een praktische regulering van AI, wordt in dit verband de Europese gezondheidssector genoemd als een mogelijk geval waarin de reeds bestaande regelgeving, zoals de verordening betreffende medische hulpmiddelen en het daaraan verbonden certificatieproces, voldoende kan zijn om bij te blijven met op AI gebaseerde technologieën.

Medische hulpmiddelen worden in principe gereguleerd door nationale autoriteiten, in Nederland door het College ter Beoordeling van Geneesmiddelen. Desondanks is het  Europees Geneesmiddelen Agentschap (EMA) verantwoordelijk voor de beoordeling, autorisatie en supervisie van bepaalde categorieën medische hulpmiddelen, in het licht van de Europese wetgeving.

Vanwege de mogelijkheden die innovatieve technologieën (waaronder medische hulpmiddelen op basis van AI) bieden om de gezondheidszorg te transformeren alsmede de daaraan verbonden risico’s, is het EMA toegetreden tot een Europese task force. Deze task force richt zich hierop[1] en heeft strategische hoofddoelen vastgesteld[2], waaronder de exploitatie van digitale technologieën en AI in besluitvorming. Naast de ontwikkeling van expertise in de omgang met digitale technologie, AI en cognitive computing, heeft EMA het idee om een AI-testlaboratorium op te zetten. Dit testlaboratorium zou zich richten op de verkenning van op AI gebaseerde technologieën specifiek gericht op ondersteuning van beslissingen gebaseerd op data.

Over het algemeen houden de belangrijkste Europese zorgen over AI, gezien de complexiteit van de respectieve algoritmen, verband met transparantie en verantwoording. Meer specifiek zien de zorgen op de identificatie van onrechtmatige vooroordelen en vooringenomenheid. In dit verband kunnen bijvoorbeeld inbreuken op gezondheidsgegevens in combinatie met AI-besluitvorming op basis van gevoelige gegevens zoals deze gezondheidsgegevens leiden tot discriminatie. Dit wordt dan ook als een groot risico gezien.

Bovendien benoemt de verordening betreffende medische hulpmiddelen verschillende vereisten, zoals geïnformeerde toestemming, transparantie, toegang tot informatie en beschikbaarstelling van toegankelijke en essentiële informatie over het hulpmiddel aan de patiënt. Het valt daarom aan te raden om, bij het ter beoordeling indienen van een medisch hulpmiddel bij het EMA, aandacht te besteden aan en inspanning te tonen met betrekking tot deze vereisten en de hierboven beschreven AI-gerelateerde uitdagingen. Dit kan onder andere door het presenteren van voorspelbare en verifieerbare algoritmen, een duidelijk overzicht te verschaffen van de categorieën van gegevens die in het project worden gebruikt en het uitvoeren van regelmatige audits en procedures om discriminatie, fouten en onnauwkeurigheden te voorkomen.

Gezien het bovenstaande lijkt het EMA nog steeds op zoek te zijn naar een adequate aanpak om ervoor te zorgen dat op AI gebaseerde innovatieve technologieën effectief en geschikt zijn om medische beslissingen te ondersteunen. Hetzelfde geldt voor het inpassen van AI in het bestaande regelgevingskader, op een manier dat deze technologieën worden ondersteund door de samenleving. Desondanks ondersteunt het EMA initiatieven om AI te verkennen en zijn er verschillende onderzoeken op basis van AI goedgekeurd, waaronder het plan voor pediatrisch onderzoek voor PXT3003 door Pharnext.[3] Hieruit blijkt dat het EMA dus openstaat om op AI gebaseerde projecten te bespreken.

Zoals opgenomen in een recent artikel geschreven door Daniel Walch, directeur van groupement hospitalier de l’Ouest lémanique (GHOL) en door Xavier Comtesse, hoofd van de eerste denktank in Zwitserland en PhD in Computer Science: “Artificiële intelligentie zal artsen niet vervangen. Maar de artsen die AI zullen gebruiken, zullen degenen vervangen die het niet zullen doen”. Een meer praktische aanpak met betrekking tot de goedkeuring van medische hulpmiddelen op basis van AI is voor de bevordering van innovatie en het vertrouwen in de Europese gezondheidssector dan ook van cruciaal belang. Des te groter wordt het belang vanaf mei 2020, wanneer de verordening betreffende medische hulpmiddelen volledig van toepassing wordt.

 

[1] HMA-EMA Joint Big Data Taskforce

https://www.ema.europa.eu/en/documents/minutes/hma/ema-joint-task-force-big-data-summary-report_en.pdf

[2] EMA Regulatory Science to 2025

https://www.ema.europa.eu/en/documents/regulatory-procedural-guideline/ema-regulatory-science-2025-strategic-reflection_en.pdf

[3] European Medicines Agency Agrees with Pharnext’s Pediatric Investigation Plan for PXT3003

https://www.pharnext.com/images/PDF/press_releases/2018.07.10_PIP_agreement_EN.pdf

BG.tech