Risico check voor AI toepassingen

16 aug 2021

Zonder dat we het vaak weten, gebruiken we dagelijks producten en diensten waar kunstmatige intelligentie (artificial intelligence: “AI”) is toegepast. Zoals bijvoorbeeld spraakherkenning in de auto, chatbots op websites, diagnose van kankercellen en het geautomatiseerd nemen van beslissingen. Omdat steeds meer partijen, zowel commerciële partijen als overheden, meer data ter beschikking krijgen, kan deze worden ingezet om een model te maken waarbij voorspellingen gedaan kunnen worden. Voor het maken van dat model wordt AI toegepast.

Voor ontwikkelaars van AI toepassingen, opdrachtgevers van het maken van AI toepassingen en degene die AI toepassingen gebruiken, is de vraag dan aan welke wet- en regelgeving een AI toepassing moet voldoen. Waar wordt een risico gelopen, hoe groot of klein is dat risico en hoe kan een risico worden beperkt of weggenomen? Maar ook vragen over Intellectuele Eigendom aspecten (is de AI toepassing of het resultaat van de AI toepassing beschermd door een Intellectueel Eigendomsrecht /bedrijfsgeheim), mededingingsaspecten (mag je een AI toepassing weigeren te delen met concurrenten), aansprakelijkheidsvragen (wie is aansprakelijk voor schade door/met een AI toepassing) en ‘civielrechtelijke vragen’ (wie is ‘eigenaar' van de (bestaande/nieuwe) data, wie mag wat met de data, wat gebeurt er met de data/het algoritme na het einde van een AI toepassing, kan ik een pandrecht vestigen op een algoritme/AI toepassing/data set).

BG.legal kan daarvoor een AI risico check (“AI Risk Assessment”) uitvoeren en met advies komen hoe eventuele risico’s te beperken of weg te nemen.

Wat houdt het precies in?

Vaak is er voor AI toepassingen al wet- en regelgeving die van toepassing is. Zoals bijvoorbeeld de Algemene Verordening Persoonsgegevens, de Wet Medisch Hulpmiddel, de Grondwet/Europees Handvest en product aansprakelijkheidsregelgeving. Maar voor veel aspecten is er nog geen regelgeving. Deze is wel in de maak met het voorstel voor een Europese AI Verordening. Zie ons blog over dit voorstel.

In een AI Risk Assessment analyseren we voor een bepaalde AI toepassing of deze voldoet aan huidige wet- en regelgeving en aan het voorstel EU AI Verordening. Dit betekent dat we toetsen aan de drie componenten:

  1. wettig – wordt aan alle toepasselijke wet- en regelgeving voldaan;
  2. ethisch – worden ethische beginselen en waarden gerespecteerd;
  3. robuust – is de AI toepassing robuust zowel vanuit technisch (cyber security) als sociaal oogpunt

In het concrete advies geven we aan hoe risico’s weggenomen of beperkt kunnen worden.

Hoe werkt het

Voor het uitvoeren van de AI Risk Assessment hanteren wij een model waarbij we de volgende stappen zetten:

  1. uitvoeren pre-test: is het uitvoeren van een AI Risk Assessment wel nodig? Wanneer de risico’s zeer beperkt zijn, dan zou afgezien kunnen worden van het uitvoeren van een AI Risk Assessment.
  2. Uitvoeren Risk Assessment: met de opdrachtgever bepalen we vooraf het team van de opdrachtgever met wie we het assessment uitvoeren, hoe we het gaan uitvoeren, of er externe partijen deel gaan uitmaken van het team (ethici, informatiebeveiligingsdeskundigen, etc.).
  3. Na afloop van het assessment ontvangt de opdrachtgever een rapport waarin we de risico’s van de betreffende AI toepassing in kaart hebben gebracht met aanbevelingen hoe risico’s gemitigeerd kunnen worden.
  4. Nadat maatregelen zijn getroffen waarbij risico’s zijn gemitigeerd kunnen we de AI Risk Assessment opnieuw uitvoeren en een nieuw rapport uitbrengen.

Het rapport kan gedeeld worden met externe partijen zoals (potentiële) opdrachtgevers.

Waarom uit laten voeren door BG.legal?

BG.legal heeft een team dat bestaat uit advocaten, juristen en een data scientist, dat zich toelegt op de juridische aspecten van data/AI. Wij adviseren opdrachtgevers al verschillende jaren over deze onderwerpen. Onze opdrachtgevers zijn bedrijven (startups, scale-ups en MKB), overheden en kennisinstellingen. Soms ontwikkelen zij AI toepassingen en soms geven zij opdracht voor de ontwikkeling van de AI toepassing of zijn zij afnemer/gebruiker van een AI toepassing.

Logo LegalAIR

BG.legal heeft het kennisplatform legalAIR (www.legalair.nl) ontwikkeld. Jos van der Wijst, head van het BG.tech team, coördineert voor de Nederlandse AI coalitie de activiteiten op het gebied van juridische aspecten van AI. Hij is onderdeel van het kernteam Mensgerichte AI van de NL AIC.

BG.legal heeft de kennis en ervaring in huis om een AI Riks Assessment uit te voeren.

Wat kost het?

De kosten voor het uitvoeren van een AI Risk Assessment zijn afhankelijk van de aard en omvang van de AI toepassing. Na een eerste gesprek maken we hier een offerte voor.

Meer informatie?

Voor meer informatie neemt u contact op met Jos van der Wijst:

M           : 0650695916
E             : wijst@bg.legal

Jos van der Wijst

 

 

 

 

 

 

 

Gerelateerde Artikelen/blogs: