
Zonder dat we het vaak weten, gebruiken we dagelijks producten en diensten waar kunstmatige intelligentie (artificial intelligence: “AI”) is toegepast. Zoals bijvoorbeeld spraakherkenning in de auto, chatbots op websites, diagnose van kankercellen en het geautomatiseerd nemen van beslissingen. Omdat steeds meer partijen, zowel commerciële partijen als overheden, meer data ter beschikking krijgen, kan deze worden ingezet om een model te maken waarbij voorspellingen gedaan kunnen worden. Voor het maken van dat model wordt AI toegepast.
Voor ontwikkelaars van AI toepassingen, opdrachtgevers van het maken van AI toepassingen en degene die AI toepassingen gebruiken, is de vraag dan aan welke wet- en regelgeving een AI toepassing moet voldoen. Waar wordt een risico gelopen, hoe groot of klein is dat risico en hoe kan een risico worden beperkt of weggenomen? Maar ook vragen over Intellectuele Eigendom aspecten (is de AI toepassing of het resultaat van de AI toepassing beschermd door een Intellectueel Eigendomsrecht /bedrijfsgeheim), mededingingsaspecten (mag je een AI toepassing weigeren te delen met concurrenten), aansprakelijkheidsvragen (wie is aansprakelijk voor schade door/met een AI toepassing) en ‘civielrechtelijke vragen’ (wie is ‘eigenaar' van de (bestaande/nieuwe) data, wie mag wat met de data, wat gebeurt er met de data/het algoritme na het einde van een AI toepassing, kan ik een pandrecht vestigen op een algoritme/AI toepassing/data set).
BG.legal kan daarvoor een AI risico check (“AI Risk Assessment”) uitvoeren en met advies komen hoe eventuele risico’s te beperken of weg te nemen.
Wat houdt het precies in?
- wettig – wordt aan alle toepasselijke wet- en regelgeving voldaan;
- ethisch – worden ethische beginselen en waarden gerespecteerd;
- robuust – is de AI toepassing robuust zowel vanuit technisch (cyber security) als sociaal oogpunt
Hoe werkt het
- uitvoeren pre-test: is het uitvoeren van een AI Risk Assessment wel nodig? Wanneer de risico’s zeer beperkt zijn, dan zou afgezien kunnen worden van het uitvoeren van een AI Risk Assessment.
- Uitvoeren Risk Assessment: met de opdrachtgever bepalen we vooraf het team van de opdrachtgever met wie we het assessment uitvoeren, hoe we het gaan uitvoeren, of er externe partijen deel gaan uitmaken van het team (ethici, informatiebeveiligingsdeskundigen, etc.).
- Na afloop van het assessment ontvangt de opdrachtgever een rapport waarin we de risico’s van de betreffende AI toepassing in kaart hebben gebracht met aanbevelingen hoe risico’s gemitigeerd kunnen worden.
- Nadat maatregelen zijn getroffen waarbij risico’s zijn gemitigeerd kunnen we de AI Risk Assessment opnieuw uitvoeren en een nieuw rapport uitbrengen.
Waarom uit laten voeren door BG.legal?
Wat kost het?
Meer informatie?
Gerelateerde Artikelen/blogs: