Blog van medewerkers

WP_Query Object
(
    [query] => Array
        (
            [news-type] => blog
        )

    [query_vars] => Array
        (
            [news-type] => blog
            [error] => 
            [m] => 
            [p] => 0
            [post_parent] => 
            [subpost] => 
            [subpost_id] => 
            [attachment] => 
            [attachment_id] => 0
            [name] => 
            [pagename] => 
            [page_id] => 0
            [second] => 
            [minute] => 
            [hour] => 
            [day] => 0
            [monthnum] => 0
            [year] => 0
            [w] => 0
            [category_name] => 
            [tag] => 
            [cat] => 
            [tag_id] => 
            [author] => 
            [author_name] => 
            [feed] => 
            [tb] => 
            [paged] => 0
            [meta_key] => 
            [meta_value] => 
            [preview] => 
            [s] => 
            [sentence] => 
            [title] => 
            [fields] => 
            [menu_order] => 
            [embed] => 
            [category__in] => Array
                (
                )

            [category__not_in] => Array
                (
                )

            [category__and] => Array
                (
                )

            [post__in] => Array
                (
                )

            [post__not_in] => Array
                (
                )

            [post_name__in] => Array
                (
                )

            [tag__in] => Array
                (
                )

            [tag__not_in] => Array
                (
                )

            [tag__and] => Array
                (
                )

            [tag_slug__in] => Array
                (
                )

            [tag_slug__and] => Array
                (
                )

            [post_parent__in] => Array
                (
                )

            [post_parent__not_in] => Array
                (
                )

            [author__in] => Array
                (
                    [0] => 6
                )

            [author__not_in] => Array
                (
                )

            [search_columns] => Array
                (
                )

            [ignore_sticky_posts] => 
            [suppress_filters] => 
            [cache_results] => 1
            [update_post_term_cache] => 1
            [update_menu_item_cache] => 
            [lazy_load_term_meta] => 1
            [update_post_meta_cache] => 1
            [post_type] => 
            [posts_per_page] => 10
            [nopaging] => 
            [comments_per_page] => 50
            [no_found_rows] => 
            [taxonomy] => news-type
            [term] => blog
            [order] => DESC
        )

    [tax_query] => WP_Tax_Query Object
        (
            [queries] => Array
                (
                    [0] => Array
                        (
                            [taxonomy] => news-type
                            [terms] => Array
                                (
                                    [0] => blog
                                )

                            [field] => slug
                            [operator] => IN
                            [include_children] => 1
                        )

                )

            [relation] => AND
            [table_aliases:protected] => Array
                (
                    [0] => wp_term_relationships
                )

            [queried_terms] => Array
                (
                    [news-type] => Array
                        (
                            [terms] => Array
                                (
                                    [0] => blog
                                )

                            [field] => slug
                        )

                )

            [primary_table] => wp_posts
            [primary_id_column] => ID
        )

    [meta_query] => WP_Meta_Query Object
        (
            [queries] => Array
                (
                )

            [relation] => 
            [meta_table] => 
            [meta_id_column] => 
            [primary_table] => 
            [primary_id_column] => 
            [table_aliases:protected] => Array
                (
                )

            [clauses:protected] => Array
                (
                )

            [has_or_relation:protected] => 
        )

    [date_query] => 
    [queried_object] => WP_Term Object
        (
            [term_id] => 56
            [name] => Blog van medewerkers
            [slug] => blog
            [term_group] => 0
            [term_taxonomy_id] => 56
            [taxonomy] => news-type
            [description] => 
            [parent] => 0
            [count] => 1415
            [filter] => raw
        )

    [queried_object_id] => 56
    [request] => SELECT SQL_CALC_FOUND_ROWS  wp_posts.ID
					 FROM wp_posts  LEFT JOIN wp_term_relationships ON (wp_posts.ID = wp_term_relationships.object_id) LEFT  JOIN wp_icl_translations wpml_translations
							ON wp_posts.ID = wpml_translations.element_id
								AND wpml_translations.element_type = CONCAT('post_', wp_posts.post_type) 
					 WHERE 1=1  AND ( 
  wp_term_relationships.term_taxonomy_id IN (56)
) AND wp_posts.post_author IN (6)  AND ((wp_posts.post_type = 'post' AND (wp_posts.post_status = 'publish' OR wp_posts.post_status = 'acf-disabled' OR wp_posts.post_status = 'tribe-ea-success' OR wp_posts.post_status = 'tribe-ea-failed' OR wp_posts.post_status = 'tribe-ea-schedule' OR wp_posts.post_status = 'tribe-ea-pending' OR wp_posts.post_status = 'tribe-ea-draft'))) AND ( ( ( wpml_translations.language_code = 'nl' OR (
					wpml_translations.language_code = 'nl'
					AND wp_posts.post_type IN ( 'attachment' )
					AND ( ( 
			( SELECT COUNT(element_id)
			  FROM wp_icl_translations
			  WHERE trid = wpml_translations.trid
			  AND language_code = 'nl'
			) = 0
			 ) OR ( 
			( SELECT COUNT(element_id)
				FROM wp_icl_translations t2
				JOIN wp_posts p ON p.id = t2.element_id
				WHERE t2.trid = wpml_translations.trid
				AND t2.language_code = 'nl'
                AND (
                    p.post_status = 'publish' OR p.post_status = 'private' OR 
                    ( p.post_type='attachment' AND p.post_status = 'inherit' )
                )
			) = 0 ) ) 
				) ) AND wp_posts.post_type  IN ('post','page','attachment','wp_block','wp_template','wp_template_part','wp_navigation','our_sector','our_rechtsgebieden','acf-field-group','bwl_advanced_faq','tribe_venue','tribe_organizer','tribe_events','mc4wp-form','slider-data','actualiteiten','accordion','failissementens','advocaten','blogs','seminar','juridisch-medewerker','backoffice','rechtsgebied-detail' )  ) OR wp_posts.post_type  NOT  IN ('post','page','attachment','wp_block','wp_template','wp_template_part','wp_navigation','our_sector','our_rechtsgebieden','acf-field-group','bwl_advanced_faq','tribe_venue','tribe_organizer','tribe_events','mc4wp-form','slider-data','actualiteiten','accordion','failissementens','advocaten','blogs','seminar','juridisch-medewerker','backoffice','rechtsgebied-detail' )  )
					 GROUP BY wp_posts.ID
					 ORDER BY wp_posts.menu_order, wp_posts.post_date DESC
					 LIMIT 0, 10
    [posts] => Array
        (
            [0] => WP_Post Object
                (
                    [ID] => 44050
                    [post_author] => 6
                    [post_date] => 2024-11-18 13:48:12
                    [post_date_gmt] => 2024-11-18 12:48:12
                    [post_content] => Een gemeente gaat, na een aanbesteding, een dienst afnemen waarbij AI wordt gebruikt door de leverancier. De gemeente wil zeker weten dat deze dienst wet- en regelgeving nakomt. Met name Europese digitaliseringsregelgeving zoals de AI Act. De gemeente ziet een, in potentie, afbreukrisico.

Voor deze gemeente gaan wij een AI Act compliance check uitvoeren. Wanneer er sprake is van een AI systeem in de zin van de AI Act, dan brengt dat verplichtingen met zich mee. De omvang van deze verplichtingen is afhankelijk van de risico-categorie waar het AI-systeem onder valt. We beginnen met een onderzoek naar de vragen:
  • Wordt hier een AI techniek gebruikt waardoor het voldoet aan de definitie van Artificial Intelligence in de AI Act.
  • Zo ja, in welke risico categorie van de AI Act, valt dit AI-systeem.
  • De AI Act onderscheidt verschillende rollen van partijen in de keten (ontwikkelaar, verkoper, gebruiker). Wie vervult welke rol en voldoet deze partij aan de verplichtingen van die rol.
Wanneer de conclusie van het onderzoek is dat er geen sprake is van een (hoog-risico) AI-systeem, dan betekent dit ook veel minder verplichtingen voor de leverancier en de gemeente. Complexe AI vraagstukken pakken wij op samen met de partners in het LegalAIR verband. Daar werken we samen met partijen met andere disciplines dan legal (ethiek, cybersecurity, data-science, regulatory). Afhankelijk van de vraag, stellen we een multidisciplinair team samen die de vragen beantwoorden. Is jouw organisatie al begonnen met het in kaart brengen van de AI systemen en AI-modellen die jullie gebruiken? Daar begint het mee. Vervolgens zou je van al die AI-systemen en AI-modellen moeten vaststellen of ze vallen onder het bereik van de AI Act. Wanneer dat het geval is dan zou je moeten vaststellen of ze compliant zijn. In een risicoanalyse bepaal je het potentiële risico van een AI systeem. Vervolgens kun je je aandacht vooral richten op die AI systemen die tot hoge risico’s leiden. Heb je hier vragen over of zoek je hier hulp bij, neem dan contact op met Jos van der Wijst. Jos van der Wijst 2 [post_title] => AI Act compliance [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => ai-act-compliance [to_ping] => [pinged] => [post_modified] => 2024-11-18 14:00:28 [post_modified_gmt] => 2024-11-18 13:00:28 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=44050 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [1] => WP_Post Object ( [ID] => 43637 [post_author] => 6 [post_date] => 2024-09-19 11:17:00 [post_date_gmt] => 2024-09-19 09:17:00 [post_content] => De Europese Unie wil met haar digitale strategie ervoor zorgen dat zowel mensen als bedrijven optimaal profiteren van de digitale technologie die ons leven ingrijpend verandert. Deze strategie omvat meer dan honderd verschillende soorten wet- en regelgeving, die nieuw zijn, herzien of al bestaan. Deze regels hebben impact op vrijwel elke sector en elk bedrijf binnen de EU. Bedrijven ontkomen tegenwoordig niet meer aan onderwerpen zoals privacy en cybersecurity. Hieronder volgt een kort overzicht van de meest relevante regelgeving in het kader van de ‘digital decade’-strategie van de EU. Digital Decade

Artificial Intelligence Act (AIA)

  • Kern: Reguleert AI-systemen door risico’s te beoordelen van ‘minimaal risico’ tot ‘onaanvaardbaar risico’. Strenge regels voor hoog-risico toepassingen zoals gezichtsherkenning en medische apparaten.
  • Doelgroep: Ontwikkelaars, verkopers, importeurs en gebruikers van AI-systemen in sectoren zoals gezondheidszorg, transport en overheid.
  • Status: Van kracht sinds 2 augustus 2024. Gefaseerde verplichtingen: 6 maanden (verboden systemen), 12 maanden (GPAI), 24 maanden (hoog-risico Annex III).

Digital Services Act (DSA)

  • Kern: Zorgt voor een veiligere online omgeving door platformen verantwoordelijk te houden voor schadelijke inhoud en reguleert online marktplaatsen.
  • Doelgroep: Online platformen (zoals sociale media en e-commerce websites) en consumenten.
  • Status: Van kracht sinds 16 november 2022. Voor ‘erg grote platformen’ en zoekmachines al langer van kracht. Voor kleinere platformen sinds 17 februari 2024.
Zie hierbij de DSA flowchart.

European Accessibility Act

  • Kern: Stelt eisen aan de toegankelijkheid van producten en diensten (zoals smartphones, websites, geldautomaten en e-commerce) voor mensen met een handicap.
  • Doelgroep: Bedrijven die digitale producten en diensten aanbieden en gebruikers met een handicap.
  • Status: Van kracht sinds juni 2022. Nationale wetgeving uiterlijk aan te passen op 28 juni 2025.

Data Act

  • Kern: Bevordert eerlijke toegang tot en gebruik van (vooral niet-persoonlijke) data, tussen bedrijven en overheden, wat innovatie stimuleert.
  • Doelgroep: Bedrijven die data verzamelen, delen of gebruiken, evenals overheden en consumenten.
  • Status: Van kracht sinds 11 januari 2024. Verplichtingen van kracht vanaf 12 september 2025.

NIS2 Directive

  • Kern: Verbetering van de cyberveiligheid in essentiële sectoren door striktere beveiligingsvereisten voor bedrijven en overheidsinstanties.
  • Doelgroep: Kritieke infrastructuursectoren zoals energie, transport, gezondheidszorg en digitale dienstverleners.
  • Status: Van kracht sinds 16 januari 2023. Om te zetten in nationale regelgeving voor 18 oktober 2024. Op dit moment is van de Cyberveiligheidswet alleen een ontwerptekst beschikbaar.

General Data Protection Regulation  (GDPR) (in Nederland bekend als de AVG)

  • Kern: Beschermt persoonsgegevens met strenge regels over het verzamelen, verwerken en bewaren van data binnen de EU.
  • Doelgroep: Alle organisaties die persoonsgegevens verwerken, waaronder bedrijven, overheden en non-profitorganisaties.
  • Status: Van kracht sinds 2018.

Data Governance Act

  • Kern: Creëert een raamwerk voor datadeling en -beheer, gericht op het verbeteren van transparantie en vertrouwen in data-uitwisselingssystemen.
  • Doelgroep: Overheidsinstanties, bedrijven en data-bemiddelingsdiensten.
  • Status: Van kracht sinds 2023.

Open Data Directive

  • Kern: Stimuleert innovatie en economische groei door overheidsdata open te stellen voor hergebruik.
  • Doelgroep: Overheden, publieke instellingen en bedrijven die overheidsdata gebruiken.
  • Status: Van kracht sinds 2021 en in Nederland omgezet in de Wet Open Overheid.

Product Liability Directive

  • Kern: Richt zich op de aansprakelijkheid van producenten voor schade door gebrekkige producten, met speciale aandacht voor technologische ontwikkelingen zoals slimme producten en AI.
  • Doelgroep: Fabrikanten van consumentengoederen, inclusief AI-gedreven producten.
  • Status: Voorstel voor herziening gepresenteerd in september 2022, de onderhandelingen lopen nog.
Andere relevante regelgeving in de ‘Digital Decade Package’ zijn: Van AI tot datagebruik en van cybersecurity tot consumentenbescherming, de EU's 'digital decade'-strategie legt een breed scala aan regelgeving op die elke sector raakt. Bedrijven moeten (bij voorkeur proactief) inspelen op deze veranderingen om boetes te vermijden en hun digitale strategieën te versterken. Heeft u vragen over de impact van deze regelgeving op uw organisatie of wilt u weten hoe uw bedrijf zich kan voorbereiden op de naleving ervan? Neem dan contact op met Jos van der Wijst. Jos van der Wijst [post_title] => Digital decade-regelgeving raakt ieder bedrijf [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => digital-decade-regelgeving-raakt-ieder-bedrijf [to_ping] => [pinged] => [post_modified] => 2024-11-14 10:50:19 [post_modified_gmt] => 2024-11-14 09:50:19 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=43637 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [2] => WP_Post Object ( [ID] => 43226 [post_author] => 6 [post_date] => 2024-08-21 12:05:13 [post_date_gmt] => 2024-08-21 10:05:13 [post_content] => Contracten voor AI-toepassingen zijn geen standaard softwarecontracten vanwege de unieke technische kenmerken van AI-software. AI-software is afhankelijk van data en het is moeilijk om van tevoren te voorspellen wat het eindproduct zal zijn. Dit betekent dat het moeilijk is om de prestaties van AI-software te garanderen en om te bepalen wie verantwoordelijk is voor ontwikkelingsfouten. Bovendien is er een grote vraag naar hergebruik van getrainde modellen en trainingsdatasets, wat leidt tot complexe kwesties met betrekking tot intellectueel eigendom en gebruiksvoorwaarden.

Standard contractual clauses

Een voorbeeld van een dergelijk contract is het “standard contractual clauses for the procurement of Artificial Intelligence (AI) by public organisations”.[1] Dit contract is opgesteld voor overheden die hoog-risico AI systemen aankopen. Het is nog een model contract. Het is opgesteld in het voordeel van aankopende partijen met bepalingen waar leveranciers, normaal gesproken, niet mee akkoord zullen gaan.

Verschillen tussen AI en traditionele software

Een van de belangrijkste technische kenmerken van AI-software is dat het afhankelijk is van gegevens. Dit betekent dat de kwaliteit van de gegevens die worden gebruikt om het model te trainen van cruciaal belang is voor de prestaties van de AI-software. Als de gegevens van slechte kwaliteit zijn, zal de AI-software waarschijnlijk slecht presteren. Dit wordt vaak aangeduid als "garbage in, garbage out". Een ander belangrijk kenmerk van AI-software is dat het moeilijk is om ex-post verificatie uit te voeren. Wanneer een getraind model wordt gegenereerd, is het vaak moeilijk voor mensen om het generatieproces en de aard van het getrainde model te begrijpen. Dit maakt het moeilijk om te bepalen wie verantwoordelijk is voor ontwikkelingsfouten. Bovendien is er een grote vraag naar hergebruik van getrainde modellen en trainingsdatasets. Getrainde modellen kunnen evolueren door middel van extra leren en zijn relatief gemakkelijk om te zetten voor ander gebruik. Dit leidt tot complexe kwesties met betrekking tot intellectueel eigendom en gebruiksvoorwaarden.

Verschillen op een rijtje

Tabel verschil tussen AI en software

Verschillende ontwikkelproces AI en software

Het ontwikkelproces van standaard software (links: waterval) is ook anders dan het ontwikkelproces van AI-software (rechts: iteratief proces):        

Conclusie

In het licht van deze unieke kenmerken van AI-software, is het belangrijk dat contracten voor AI-toepassingen zorgvuldig worden opgesteld om rekening te houden met deze complexe kwesties. Dit kan helpen om duidelijkheid te scheppen over de rechten en verantwoordelijkheden van de betrokken partijen en om geschillen te voorkomen. Wil je een contract met betrekking tot de ontwikkeling of aankoop van een AI-toepassing laten opstellen of beoordelen, neem dan contact op met mij.

Whitepaper

Wij hebben een whitepaper opgesteld met tips voor contacten met betrekking tot de ontwikkeling /aankoop van AI toepassingen. Waar moet je aan denken bij het opstellen of beoordelen van een dergelijke overeenkomst. Wanneer je dit whitepaper wilt ontvangen, en geïnformeerd wilt blijven over de uitvoering van AI regelgeving, vul dan onderstaand formulier in. [1] AI Procurement Clauses template High Risk Jos van der Wijst 2 [post_title] => Waarom een contract voor het ontwikkelen/kopen van AI toepassingen geen standaard software contract is? [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => waarom-een-contract-voor-het-ontwikkelen-kopen-van-ai-toepassingen-geen-standaard-software-contract-is [to_ping] => [pinged] => [post_modified] => 2024-08-27 11:12:56 [post_modified_gmt] => 2024-08-27 09:12:56 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=43226 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [3] => WP_Post Object ( [ID] => 42982 [post_author] => 6 [post_date] => 2024-07-29 12:04:16 [post_date_gmt] => 2024-07-29 10:04:16 [post_content] => De vormgeving van een gebruiksvoorwerp kan auteursrechtelijk beschermd zijn. Dus ook van bijvoorbeeld een kaasschaaf. De drempel daarvoor blijkt in de praktijk hoog te zijn. Al snel is vormgeving bepaald door het gebruik of functionele eisen. Maar het kan wel. Aan de onderbouwing worden hogen eisen gesteld. In een kortgeding procedure liep het niet goed af voor Boska.[1] Boska is producent van diverse food gereedschappen zoals kaasschaven, kaasraspen en smeermessen. Haar designafdeling heeft deze ontworpen, zoals de Copenhagenlijn. Sinds 2009 verkoopt PLUS deze in haar supermarkten: Afbeelding1 Boska In 2023 eindigt de samenwerking. PLUS vraagt een andere partij om een kaasschaaf, kaasrasp en smeermes te leveren. Deze partij doet dit onder de naam Klaverland. Afbeelding2 Boska Boska stelt dat haar producten auteursrechtelijk zijn beschermd en dat PLUS (en de leverancier) inbreuk daarop maakt door de Klaverblad producten aan te bieden. PLUS heeft de Klaverblad producten vervolgens uit haar winkels en online gehaald. De leverancier en Boska komen niet tot een regeling. Boska stelt in een kortgedingprocedure dat de leverancier inbreuk heeft gemaakt op het auteursrecht van Boska en daarnaast onrechtmatig heeft gehandeld door slaafs na te bootsen. De vorderingen worden afgewezen. In een goed onderbouwd vonnis, past de rechter het werkbegrip uit de Auteurswet toe, in overeenstemming met de Auteursrecht richtlijn. In deze casus gaat het om gebruiksvoorwerpen. De toepassing van het werkbegrip is niet anders dan bij andere werken.

Auteursrechtelijke bescherming

Aan een werk worden twee voorwaarden gesteld; het moet i) nauwkeurig en objectief identificeerbaar en ii) oorspronkelijk zijn. Aan de eerste voorwaarde is voldaan. Het is voldoende duidelijk waar de auteursrechtelijke bescherming van wordt ingeroepen. De tweede voorwaarde vormt een probleem. De rechter overweegt: “De rechter moet nagaan of de maker van het product door de keuze van de verschijningsvorm ervan zijn creatieve vermogen op originele wijze tot uitdrukking heeft gebracht door vrije en creatieve keuzen te maken en het product zodanig heeft vormgegeven dat het zijn persoonlijkheid weerspiegelt”. Omdat het een gebruiksvoorwerp is gelden er functionele en technische vereisten. Dat betekent vaak een beperkte ruimte om ‘vrije en creatieve’ keuzes te maken. En daar waar die keuzes bestaan mag het niet overeenstemmen met wat er al bestond (‘het vormgevingserfgoed’). Boska heeft van de drie producten aangegeven wat de auteursrechtelijk beschermde elementen zijn (o.a. “het handvat is hol, de ‘ronde’ vormgeving van het handvat, het handvat is niet volledig rond, maar is aan de boven- en onderkant afgevlakt”). Boska vat dit samen als een eigen ‘look and feel’ van de producten. Tijdens de mondelinge behandeling heeft Boska aangegeven dat zij zich niet beroept op de auteursrechtelijke bescherming van één of meerdere specifieke elementen van de Boska producten. Boska beroept zich op de auteursrechtelijke bescherming van de combinatie van deze (stuk voor stuk onbeschermde) elementen. De rechter vindt echter dat het niet duidelijk is welke beschermingswaardige creativiteit Boska heeft toegepast om met de combinatie van de op zichzelf onbeschermde elementen, een auteursrechtelijk beschermd werk te creëren. Boska heeft onvoldoende onderbouwd op grond waarvan de combinatie van de onbeschermde elementen in de Boska Producten, de persoonlijke visie van de maker tot uiting brengt. Dit had wel van haar verwacht mogen worden.” Een andere uitkomst zou dus mogelijk zijn geweest wanneer Boska beter had onderbouwd waar de vrije en creatieve keuzes zijn gemaakt die afwijken van het vormgevingserfgoed. Verder overweegt de rechter dat het hier om gebruiksvoorwerpen gaat. Deze hebben naar hun aard een bepaalde basisvorm. En hoewel die niet per definitie uitgesloten zijn van auteursrechtelijke bescherming, is de basisvorm vaak bepaald door de gebruiksbestemming en daarmee dus functioneel bepaald. De rechtbank overweegt: “Het gaat hierbij bijvoorbeeld om de keuzes die zijn gemaakt met betrekking tot (de ronde vorm, en breedte en lengte van) het handvat, de lengte van het blad en de totale lengte van het product, in het geval van de kaasschaaf en de smeermessen (de vorm van) het blad, en in het geval van de kaasrasp de (hoeveelheid) gaatjes waarmee geraspt kan worden.” Deze elementen en de combinatie daarvan zijn ingegeven door bruikbaarheid en/of ergonomische overwegingen en ruim in het vormgevingserfgoed aanwezig. Van enige creatieve keuzes om dergelijke elementen in de Boska Producten op te nemen is geen sprake. Ook hier had de beoordeling anders kunnen uitpakken wanneer op dit onderdeel een betere onderbouwing was gegeven. Het kan natuurlijk ook dat er geen andere onderbouwing te geven was. Kortom, geen auteursrechtelijke bescherming voor de Boska producten.

Slaafse nabootsing

Voor slaafse nabootsing is vereist dat het ene product een “eigen plaats in de markt” heeft. De leverancier betwist dit ten aanzien van de Boska producten. De leverancier stelt dat Boska merk  wellicht wordt herkend door consumenten, maar dat dit niet geldt voor de vormgeving van de Boska producten. De rechter overweegt dat Boska onvoldoende aannemelijk heeft gemaakt dat de Boska producten voldoende onderscheidend waren en nog steeds zijn toen de Klaverland Producten op de markt kwamen. Uit het vormgevingserfgoed blijkt dat er een aantal kaasschaven, kaasraspen en smeermessen van verschillende producenten op de markt zijn die nauwelijks afwijken van de Boska producten. Kortom, er is geen sprake van een eigen gezicht op de markt. En dus geen slaafse nabootsing. Wat betekent dit voor de praktijk:
  • Vormgeving van gebruiksvoorwerpen kan auteursrechtelijk beschermd zijn maar de drempel lijkt hoog te zijn;
  • Wanneer je auteursrechtelijke bescherming wilt onderbouwen, dan moet je tijdens het design proces zorgen voor een goede dossiervorming (wat is het vormgevingserfgoed, waar wijkt het nieuwe ontwerp af, wat zijn de vrije en creatieve keuzes die daarbij zijn gemaakt.
  • Voor concurrenten kan dit ook kansen betekenen. Gebruiksvoorwerpen die niet aan de werktoets voldoen en die geen eigen plaats in de markt hebben, zijn vrij te kopiëren.
Voor meer informatie: neem contact op met mij. Zie ook mijn eerder blog hierover. [1] ECLI:NL:RBMNE:2024:4318, Rechtbank Midden-Nederland, C/16/576257 / KG ZA 24-279 (rechtspraak.nl) Jos van der Wijst 2 [post_title] => BOSKA kaasschaaf niet auteursrechtelijk beschermd [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => boska-kaasschaaf-niet-auteursrechtelijk-beschermd [to_ping] => [pinged] => [post_modified] => 2024-07-29 12:04:16 [post_modified_gmt] => 2024-07-29 10:04:16 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=42982 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [4] => WP_Post Object ( [ID] => 42515 [post_author] => 6 [post_date] => 2024-06-14 12:02:10 [post_date_gmt] => 2024-06-14 10:02:10 [post_content] => Met de definitieve versie van de AI Act kan de volgende cruciale stap worden genomen, namelijk het toezicht op de naleving ervan. Voor iedereen die AI ontwikkelt, op de markt brengt of gebruikt is het relevant om te weten wie in Nederland toezicht houdt op AI-toepassingen. Begin 2025 treden de eerste onderdelen van de AI Act in werking. Dit betekent dat er vanaf dat moment daadwerkelijk toezicht zal worden gehouden op de naleving van de bepalingen/verplichtingen uit de AI Act. In Nederland zal dit voornamelijk door de Autoriteit Persoonsgegevens (AP) worden gedaan, die ook verantwoordelijk is voor toezicht op en handhaving van de AVG. De AP zal hierbij samenwerken met andere instanties, waaronder de Rijksinspectie Digitale Infrastructuur (RDI). In hun recente, gezamenlijke advies aan het kabinet wordt de noodzaak van samenwerking tussen toezichthouders benadrukt. Ze vragen bovendien om voldoende budget en personeel zodat voorlichting en handhaving rondom AI-toepassingen effectief kan worden uitgevoerd. Door de samenwerking tussen de verschillende toezichthouders zullen AI-gebruikers beter geïnformeerd worden over de wettelijke vereisten die gaan gelden. Dit zorgt ervoor dat bedrijven de juiste stappen kunnen nemen om compliant te worden en blijven.

Hoe gaat het toezicht op AI eruitzien in Nederland?

De AP en de RDI adviseren het kabinet om het toezicht op AI-toepassingen zoveel mogelijk te laten aansluiten bij het bestaande toezicht in verschillende sectoren. Voor AI-producten met een hoog risico die al een CE-markering nodig hebben, kan het huidige toezicht volgens hen gehandhaafd blijven. Dit betekent bijvoorbeeld dat de Nederlandse Voedsel- en Warenautoriteit (NVWA) speelgoed zal blijven keuren, ook als er AI in verwerkt zit, en dat de Inspectie Gezondheidszorg en Jeugd (IGJ) zal toezien op AI in medische apparaten. Voor AI-toepassingen met een hoog risico waarvoor momenteel nog geen CE-markering verplicht is, zal het toezicht grotendeels bij de AP komen te liggen. Ongeacht de sector waarin deze systemen worden ingezet, fungeert de AP dan als algemene markttoezichthouder. Deze rol omvat het toezien op onder andere het trainen van AI, transparantie en menselijke controle. Er zijn echter uitzonderingen op deze algemene toezichtstructuur. Voor de financiële sector zullen de Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) het markttoezicht uitvoeren. Voor kritieke infrastructuur zullen de Inspectie Leefomgeving en Transport (ILT) en de RDI verantwoordelijk zijn. Verder zal het markttoezicht op AI-toepassingen die worden gebruikt in de rechtspraak zo moeten worden vormgegeven dat de onafhankelijkheid van rechterlijke autoriteiten gewaarborgd blijft. Hieronder zijn twee overzichten uit het advies weergegeven, met de toezichthouders voor hoog-risico en verboden AI-toepassingen. Tabel 1 Overzicht uit het advies van de toezichthouders per categorie van de AI-toepassingen die hoog-risico zijn onder de AI Act. Tabel 2 Overzicht uit het advies van de toezichthouders per categorie van de AI-toepassingen die verboden zijn onder de AI Act.

Wat betekent dit voor bedrijven die AI inzetten?

Van alle landen uit de Europese Unie loopt Nederland momenteel voorop met het gereed maken van het nationale toezicht op AI. Dit onderstreept het belang van de naleving van de AI Act als gebruiker, importeur of producent van een AI-toepassing. Zorg er daarom voor dat het gebruik van AI binnen jouw bedrijf op orde is met een van onze drie assessmentmethodes:
  1. AI Category Assessment: Ontdek in welke risicocategorie jouw AI-systeem valt en welke regels voor jou van toepassing zijn met een op maat gemaakt advies.
  2. AI High Risk Compliance Quickscan: Een praktische tool om snel te controleren of jouw AI-systeem voldoet aan de hoog-risico vereisten van de AI Act.
  3. AI High Risk Conformity Assessment: Een grondige evaluatie waarbij we samen met jou zorgen dat je AI-systeem aan alle wettelijke eisen voldoet.
De komende maanden zal duidelijk worden hoe het kabinet het AI-toezicht in Nederland concreet vormgeeft. Bedrijven die AI inzetten zullen zich in de tussentijd moeten voorbereiden op de eisen uit de AI Act en zorgen dat hun systemen compliant zijn. Neem contact met ons op en ontdek hoe wij je kunnen helpen om aan de nieuwe regelgeving te voldoen en een veilige, verantwoorde inzet van AI-toepassingen te waarborgen. Jos van der Wijst 2 [post_title] => AI toezicht in Nederland [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => ai-toezicht-in-nederland [to_ping] => [pinged] => [post_modified] => 2024-06-14 12:13:49 [post_modified_gmt] => 2024-06-14 10:13:49 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=42515 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [5] => WP_Post Object ( [ID] => 42219 [post_author] => 6 [post_date] => 2024-05-29 11:13:04 [post_date_gmt] => 2024-05-29 09:13:04 [post_content] => Wat zijn de mogelijkheden van een merkhouder om op te treden tegen de verkoop van (bewerkte) merkproducten? In hoeverre mogen merkproducten worden aangepast voor verdere verkoop?Deze vragen kwamen aan de orde in een procedure waar NU.nl over berichtte met de kop “Nederlander mag geen zelfgebouwde LEGO-treinen meer verkopen”[1]. Ook volwassenen bouwen LEGO speelgoed. Die volwassenen, die zich Adult Fan of LEGO (“AFOL”) noemen, ontwerpen en bouwen constructies met LEGO-bouwstenen. Sommige handelen daar zelfs (professioneel) in. Dan gaat om het constructies zoals: [gallery size="full" link="file" ids="42226,42228"]             Deze LEGO-bouwstenen worden dan rechtmatig ingekocht. Soms worden deze bewerkt. Bijvoorbeeld doordat er een logo van een derde partij op wordt afgebeeld. Zoals hierboven het NS logo op de trein. Soms worden LEGO-bouwstenen daarbij bewerkt, zoals onderstaand voorbeeld waarbij een metalen kogellager is aangebracht. [gallery size="full" link="file" ids="42230,42232"]

Uitputting?

Centraal stond in deze procedure de vraag of het recht van LEGO om zich te verzetten tegen deze verkoop was “uitgeput”. LEGO verzette zich daartegen met als argument dat de toestand van de LEGO-bouwstenen was aangetast en zonder toestemming van LEGO. En dat zou komen doordat er (een metalen) kogellager in de LEGO-bouwstenen was aangebracht. En daar had LEGO geen toestemming voor verleend. En dat leidde ook tot post-sales klachten. LEGO beriep zich daarbij op haar merkrechten. LEGO heeft het woord LEGO als merk geregistreerd. Dit LEGO-woordmerk is op alle bouwstenen aangebracht. Het LEGO blokje zelf is niet als merk geregistreerd omdat de vorm technisch is bepaald. LEGO heeft wel de vorm van de minifiguurtjes als (vorm)merk geregistreerd: 1234

Oordeel rechter

In dit kort geding[2] moest de voorzieningenrechter oordelen of inbreuk werd gemaakt op de merkrechten van LEGO. De voorzieningenrechter oordeelde dat sprake was van inbreuk op de merkrechten. Daarbij speelde een rol dat:
  • de voorzieningenrechter van belang vond dat de kwaliteit van het plastic van de LEGO-bouwstenen waaraan een (metalen) kogellager is toegevoegd was aangetast en daardoor niet (meer) voldeed aan de (hoge) kwaliteitseisen die daaraan, ook vanuit de voor (kinder)speelgoed geldende eisen voor productveiligheid, worden gesteld;
  • tijdens de zitting de voorzieningenrechter zelf heeft kunnen waarnemen dat “de LEGO-bouwstenen waaraan een metalen kogellager is toegevoegd, zogenaamde stress whitening vertonen”.
  • er onder meer lood was gedetecteerd in de aangebrachte metalen kogellager, hetgeen LEGO problematisch acht.
  • het bedrukken van LEGO-bouwstenen ook kan leiden tot aantasting van de herkomstfunctie van de LEGO-merken;
Dit alles betekende dat degene die deze LEGO producten aanbood:
  • het aanbieden van deze producten moest staken;
  • opgave moest doen van de professionele partijen aan wie hij deze producten had verkocht
  • een rectificatie moest sturen naar zijn klanten
  • een product recall moest uitvoeren onder zijn professionele afnemers (niet zijnde consumenten)
  • een dwangsom verschuldigd werd wanneer hij nogmaals inbreuk zou maken
  • een kostenvergoeding moest betalen (ruim € 16.000,=).
LEGO had ook gevorderd dat er een opgave gedaan moest worden van de gemaakte winst. Die vordering wordt afgewezen omdat daar, in het kader van dit kort geding, geen spoedeisend belang voor bestond.

Wat betekent dit voor merkhouders

In Nederland kunnen merkhouders zich verzetten tegen de verdere verhandeling van hun merkproducten wanneer iets aan de toestand van het product is aangepast. Dat kan zijn:
  • dat er iets aan het product is toegevoegd of aangebracht, zoals in dit geval een (metalen) kogellager.
  • Of dat er een logo van een derde partij op het product is aangebracht, zoals in dit geval het logo van NS op het treinstel.
Ben je merkhouder en wil je optreden tegen de verdere verhandeling van je (gewijzigd) merkproduct, neem dan contact op met mij om je mogelijkheden tot handhaving van je merkrecht (of ander Intellectueel Eigendomsrecht) te bespreken. Word je hierop aangesproken door een merkhouder, ook dan kunnen wij je adviseren over je juridische positie en mogelijkheden. Neem contact op met mij (wijst@bg.legal). [1] NU.nl 28 mei 2024 https://www.nu.nl/economie/6314601/nederlander-mag-geen-zelfgebouwde-lego-treinen-meer-verkopen.html [2] Rechtbank Den Haag, 28 mei 2024, ECLI:NL:RBDHA:2024:7992 Jos van der Wijst [post_title] => LEGO kan optreden tegen verhandeling van LEGO-bouwstenen en minifiguren [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => lego-kan-optreden-tegen-verhandeling-van-lego-bouwstenen-en-minifiguren [to_ping] => [pinged] => [post_modified] => 2024-05-29 14:26:36 [post_modified_gmt] => 2024-05-29 12:26:36 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=42219 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [6] => WP_Post Object ( [ID] => 42183 [post_author] => 6 [post_date] => 2024-05-24 13:46:51 [post_date_gmt] => 2024-05-24 11:46:51 [post_content] => Na een voorstel voor een tekst van de AI Act, wijzigingsvoorstellen van de EU lidstaten en het Europees Parlement en een akkoord op een compromistekst, is de tekst nog een keer nagelopen. Dat heeft geleid tot een tekst die op onderdelen nog is aangepast. Die tekst is nu goedgekeurd.

Wat moet er nu nog gebeuren?

Deze finale tekst moet nog worden gepubliceerd in het Publicatieblad van de Europese Unie.

Tijdslijn

De dag van publicatie is het moment waarop de termijnen gaan lopen:
  • na 20 dagen: de AI Act treedt in werking;
  • na 6 maanden: de verboden AI toepassingen mogen niet (meer) op de EU markt beschikbaar zijn;
  • na 9 maanden: de Europese Commissie publiceert Codes of Practices voor General Purpose AI models;
  • na 12 maanden: verplichtingen voor General Purpose AI Models gelden, Europese Commissie komt met richtlijnen voor het melden van incidenten met hoog risico AI systemen;
  • na 18 maanden: de Europese Commissie komt met praktische richtlijnen voor het classificeren van AI systemen;
  • na 24 maanden: de Annex III hoog-risico AI systemen moeten aan hun verplichtingen voldoen, de transparantieverplichtingen gelden, de codes of conduct verplichtingen gelden.
  • na 36 maanden: de Annex II hoog-risico AI systemen moeten aan hun verplichtingen voldoen.

Wat te doen?

Nu de tekst van de AI Act definitief is, zal iedereen zich moeten gaan voorbereiden. Natuurlijk is dit het meest urgent voor ontwikkelaars van AI systemen. Maar ook andere partijen moeten zich hierin gaan verdiepen; degene die een AI systeem integreren in hun hardware/software, degene die AI systemen gaan distribueren en degene die AI systemen gaan gebruiken.

AI ontwikkelaars

Zij zullen zich af moeten vragen:
  • valt het door mij ontwikkelde AI systeem onder de definitie van AI (of hoe voorkom ik dat)
  • wanneer het er onder valt: in welke risico-categorie valt mijn AI systeem
  • voldoe ik aan de vereisten voor die klasse of wat moet ik doen om hieraan te voldoen.

AI gebruikers

Dit zal bijna iedereen zijn. Iedereen zal moeten onderzoeken of zijn/haar organisatie (geïntegreerde) AI systemen gebruikt. En dan zal de leverancier moeten aangeven wat de risico-categorie is en of aan de vereisten van die risico-categorie is voldaan.

Voor wie gaat dit werk opleveren

De verwachting is dat voor veruit de meeste AI systemen geen of beperkte gevolgen voortvloeien uit de AI Act. Of er gevolgen zijn blijkt na inventarisatie (AI mapping). Wanneer er wel verboden of hoog-risico AI systemen worden ontwikkeld of gebruikt, dan is er werk aan de winkel. En dan kan 6/24 maanden sneller voorbij zijn dan je denkt.

Hulp?

Mail (wijst@bg.legal) wanneer je hulp wilt bij:
  • onderzoek of naar de classificatie van een AI systeem
  • onderzoek of een AI systeem compliant is met wet- en regelgeving
  • de vragen die je moet stellen aan (potentiële) leveranciers van software
Jos van der Wijst [post_title] => Tekst AI Act definitief [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => tekst-ai-act-definitief [to_ping] => [pinged] => [post_modified] => 2024-05-24 14:05:37 [post_modified_gmt] => 2024-05-24 12:05:37 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=42183 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [7] => WP_Post Object ( [ID] => 41358 [post_author] => 6 [post_date] => 2024-02-29 16:03:12 [post_date_gmt] => 2024-02-29 15:03:12 [post_content] => De verplichtingen van de AI Act zijn in beginsel niet van toepassing op AI-modellen die onder vrije en open source licenties worden vrijgegeven. Maar wat is Open Source-AI precies en welke uitzonderingen gelden? In deze blog nemen we je mee.

Definitie

Één duidelijke, vaste definitie van ‘open-source’ wordt niet gegeven in de AI Act, maar in de tekst van de Verordening kunnen we wel een aantal aanknopingspunten vinden:
  • AI-modellen voor algemene doeleinden, die onder een vrije en open source licentie worden vrijgegeven, worden geacht hoge niveaus van transparantie en openheid te garanderen door hun parameters, met inbegrip van de gewichten, de informatie over de modelarchitectuur en de informatie over het gebruik van het model openbaar te maken.
  • Een licentie wordt geacht vrij en open source te zijn wanneer de gebruikers de software en gegevens, inclusief modellen, kunnen runnen, kopiëren, verspreiden, bestuderen, wijzigen en verbeteren op voorwaarde dat de oorspronkelijke leverancier van het model vermeld wordt en de identieke of vergelijkbare distributievoorwaarden worden gerespecteerd.

Uitzonderingen

De verplichtingen van de AI Act zijn zoals gezegd in beginsel niet van toepassing op AI-modellen die onder vrije en open source licenties worden vrijgegeven (oftewel: ‘Open Source AI-modellen). Dit is anders wanneer het Open Source AI-systeem op de markt wordt gebracht of in gebruik wordt genomen als AI-systeem met een hoog risico of als het een AI-systeem is dat onder de titels II en IV valt. Hierbij gaat het om verboden AI-toepassingen, GPAI-modellen en ‘bepaalde AI-systemen’ (zoals AI-systemen die beeld-, audio- of video-inhoud genereren of manipuleren om een deep fake te creëren, emotieherkenningssystemen en biometrische categorisatiesystemen). Om het wat ingewikkelder te maken, geldt op de uitzondering van GPAI-modellen (waardoor de AI Act toch wél van toepassing is op Open Source AI-modellen), weer een uitzondering die blijkt uit overweging 60f van de AI Act: AI-modellen voor algemene doeleinden die onder een vrije en open source licentie worden vrijgegeven (hierna: ‘Open Source GPAI’) en waarvan de ‘parameters, including the weights, the information on the model architecture, and the information on model usage’ openbaar worden gemaakt, zijn uitgezonderd van de transparantievereisten die aan GPAI’s worden gesteld (in art. 52 van de AI Act). Dus: de verplichtingen uit de AI Act gelden wel voor de Open Source GPAI’s, maar de transparantieverplichtingen niet. Maar, wanneer deze Open Source GPAI’s een systeemrisico inhouden, gaat die vlieger niet meer op. Het feit dat het model transparant is en onder een open source licentie wordt vrijgegeven is dan niet voldoende reden om de naleving van de verplichtingen van de AI Act uit te sluiten.

Een systeemrisico

Een systeemrisico is een risico specifiek voor GPAI’s met grote gevolgen voor de interne markt vanwege de reikwijdte ervan, en met daadwerkelijke of redelijkerwijs te verwachten negatieve gevolgen voor de volksgezondheid, de openbare veiligheid, de openbare veiligheid, de grondrechten of de samenleving als geheel, die zich op grote schaal in de waardeketen kunnen verspreiden. Het kan dus zo zijn dat een Open Source GPAI een systeemrisico inhoudt, waardoor de transparantieverplichtingen voor GPAI’s uit art. 52 alsnog gelden. Bovendien, onthullen Open Source GPAI’s niet noodzakelijkerwijs substantiële informatie over de dataset die is gebruikt voor het trainen of afstemmen van het model. Hetzelfde geldt voor de informatie over de wijze waarop daarbij de naleving van het auteursrecht is gewaarborgd. De transparantie uitzondering voor Open Source GPAI’s, geldt daarom dus niet ten aanzien van de verplichting om een samenvatting te maken van de inhoud die is gebruikt voor de modeltraining en de verplichting om een beleid in te voeren om het auteursrecht van de Unie te respecteren. Dit betekent dat dus in ieder geval, ook als er geen sprake is van een systeemrisico, zal een Open Source GPAI dus een samenvatting moeten maken van de inhoud die is gebruikt voor de modeltraining en een beleid moeten voeren om het auteursrecht te respecteren. Samengebracht in een schematisch overzicht ziet het er zo uit: Tabel Open Source AI Verder worden de ontwikkelaars van Open Source instrumenten, diensten, processen of AI-componenten anders dan GPAI worden aangemoedigd om algemeen aanvaarde documentatiepraktijken toe te passen, zoals modelkaarten en gegevensbladen, als een manier om het delen van informatie langs de AI-waardeketen te versnellen, waardoor de bevordering van betrouwbare AI-systemen mogelijk wordt.

Waarom worden Open Source AI-modellen uitgezonderd?

Software en gegevens, met inbegrip van modellen, die worden vrijgegeven onder een open source-licentie waardoor ze openlijk kunnen worden gedeeld en gebruikers ze of gewijzigde versies ervan vrij kunnen openen, gebruiken, wijzigen en verspreiden, kunnen bijdragen aan onderzoek en innovatie op de markt en kunnen aanzienlijke groeikansen bieden voor de economie van de Unie. Dit is een afweging die de Europese wetgever heeft gemaakt, om een chilling effect op open-source ontwikkeling te voorkomen.

Een open einde

Hoewel Open Source AI-modellen in beginsel zijn vrijgesteld van de verplichtingen van de AI Act, zijn er ook belangrijke uitzonderingen. Vooral wanneer deze systemen worden beschouwd als hoog-risico of vallen onder specifieke categorieën die strengere transparantie- en compliance-eisen stellen. De vrijstelling van Open Source AI-modellen onderstreept het belang dat de Europese wetgever hecht aan het bevorderen van transparantie, innovatie en groei binnen de AI-sector. Voor ontwikkelaars en gebruikers van Open Source AI-modellen is het van belang dat zij zich bewust zijn van de relevante wettelijke kaders en de waarde van best practices in documentatie en naleving, zelfs in de open-source context. Heb je vragen over de impact van de AI Act op Open Source AI-systemen, de specifieke uitzonderingen of hoe je kunt vaststellen of jouw AI-systeem hoog-risico is? Neem dan contact op met Jos van der Wijst. Jos van der Wijst [post_title] => Is Open Source-AI vrijgesteld van transparantie eisen? [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => is-open-source-ai-vrijgesteld-van-transparantie-eisen [to_ping] => [pinged] => [post_modified] => 2024-03-01 10:54:26 [post_modified_gmt] => 2024-03-01 09:54:26 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=41358 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [8] => WP_Post Object ( [ID] => 40147 [post_author] => 6 [post_date] => 2023-12-13 14:05:24 [post_date_gmt] => 2023-12-13 13:05:24 [post_content] => Het Europees Parlement, de Lidstaten en de Europese Commissie hebben overeenstemming bereikt over de tekst van de nieuwe AI verordening (AI Act).

Wat staat er in de AI Act?

Verboden toepassingen Een aantal AI toepassingen zijn verboden, zoals
  • Het ongericht schrapen van gezichtsbeelden van internet of CCTV-beelden om gezichtsherkenningsdatabases te creëren. Dit omvat dus ook praktijken zoals die van Clearview AI.
  • Emotieherkenning op de werkvloer en in onderwijsinstellingen. Met uitzonderingen zoals AI systemen die herkennen dat een chauffeur in slaap is gevallen.
  • AI die wordt gebruikt om de kwetsbaarheden van mensen uit te buiten (vanwege hun leeftijd, handicap, sociale of economische situatie).
  • AI systemen die op individuele basis het risico voorspellen op het in de toekomst plegen van misdaden (predictive policing software)
  • Onder strikte voorwaarden wordt het toegestaan dat autoriteiten met realtime gezichtsherkenningssytemen in de publieke ruimte op zoek gaan naar personen. De lijst van misdrijven is groot en omvat terrorisme, mensenhandel, seksuele uitbuiting, moord, ontvoering, verkrachting, gewapende overval, deelname aan een criminele organisatie, milieucriminaliteit.

Hoog risico AI Act

AI systemen moeten worden ingedeeld in een risico-categorie. Dit zal de leverancier/ontwikkelaar moeten doen op basis van het beoogd gebruik. De AI systemen die als hoog-risico worden geclassificeerd staan op een bijlage bij de AI act. Voor deze AI systemen zal een mensenrechten Impact Assessment (IAMA) verplicht zijn. Deze verplichting geldt alleen voor overheidsinstanties en particuliere entiteiten die diensten van algemeen belang verlenen, zoals ziekenhuizen, scholen, banken en verzekeringsmaatschappijen. De hoog-risico systemen moeten aan verplichtingen voldoen zoals een risico-management systeem, cyberveiligheid en menselijk toezicht. Voor de meeste AI systemen zal gelden dat door ‘self-assessment’ moet worden vastgesteld:
  • Of een AI systeem valt onder het bereik van de AI verordening
  • In welke risico-categorie een AI systeem valt
  • Of een AI systeem voldoet aan de vereisten van die risico-categorie.
BG.legal werkt in een consortium aangevoerd door LegalAIR, aan een AI Compliance Check. Daarbij maken we ‘vage’ normen toetsbaar en meetbaar. We volgen daarvoor het werk van de standaardisatie instanties die hier aan werken.

General purpose AI systems

Voor deze AI systemen, zoals ChatGPT, geldt dat zij transparant zullen moeten zijn over hoe zij voldoen aan de AI act. Dit omvat het verstrekken van technische documentatie, het respecteren van auteursrecht en het doen van een gedetailleerde opgave van al het materiaal dat is gebruikt voor het trainen van het model. En niet alleen door de provider van het GPAI systeem, maar ook door partijen die ergens in het ontwikkelproces hebben meegewerkt. Dus de hele keten.

AI regulatory sandbox

MKB bedrijven worden ondersteund bij de ontwikkeling van AI systemen die compliant zijn met de AI act. Overheden moeten daarvoor gaan werken met de AI regulatory sandbox. Dit is een afgesloten omgeving waarin (bepaalde aspecten van) een AI systeem, onder toezicht van een toezichthouder, getest kan worden. Een andere vorm is het “real-world-testing”. Noorwegen en de UK kennen dit instrument al. Hoe dit gaat werken moet nog concreet worden ingevuld. Zoals welke AI systemen in aanmerking komen, welke informatie moet worden gedeeld met de toezichthouder, welke informatie wordt later publiek gemaakt, is de toezichthouder bereid om constructief mee te denken om het AI systeem compliant te maken, etc.

Boetes

Aan het handelen in strijd met de AI act zijn hoge boetes verbonden. Er kunnen boetes worden opgelegd tot EUR 35 miljoen of 7% van de wereldwijde omzet.

Wanneer treedt de AI Act in werking?

De definitieve tekst zal nu vertaald moeten worden naar alle EU talen en worden aangenomen door het Europees Parlement. Vervolgens zal de AI Act in werking treden twee jaar na de datum van publicatie. Maar een aantal verplichtingen zal al een jaar eerder van kracht zijn. Zoals verplichtingen voor hoog-risico AI systemen, powerful AI models, de instanties die conformity assessments uitvoeren en het governance hoofdstuk.

Wat betekent dit in de tussentijd?

Het zou niet verstandig zijn om te wachten tot over twee jaar. Wat zouden ontwikkelaars van AI systemen moeten doen:
  • Van hun AI systeem beoordelen, op basis van het beoogd gebruik, in welke risico-categorie het AI systeem valt.
  • Beoordelen of het AI systeem voldoet aan de vereisten van die risico-categorie.
  • Wanneer discussie mogelijk is over de vraag of het een verboden of hoog-risico categorie AI systeem is, dit laten vaststellen door een derde partij (AI risk assessment).
  • Wanneer het een hoog-risico AI systeem is, voorbereiden dat het compliant zal zijn met de vereisten die de AI act stelt.
  • Wanneer onduidelijk is hoe de AI act uitgelegd moet worden voor jouw AI systeem, of een bepaald aspect daarvan, overweeg je te melden voor een AI regulatory sandbox of voor real-world-testing.
Wat zouden afnemers/gebruikers van AI systemen moeten doen:
  • Inventariseer welke AI systemen je organisatie gebruikt. Vraag leveranciers van software of er AI is verwerkt in de software.
  • Beoordeel vervolgens of AI systemen worden gebruikt die in de verboden of hoog-risico categorie vallen. Vraag zo nodig je leverancier van software om verklaringen/garanties dat er geen verboden en/of hoog-risico AI systemen worden ingezet.
  • Wanneer je gebruik maakt van een verboden AI systeem, faseer dit uit. Ga op zoek naar alternatieven en beëindig het gebruik van dit AI systeem.
  • Wanneer je gebruik maakt van een hoog-risico AI systeem, beoordeel of het AI systeem aan de vereisten voldoet. Daar waar het AI systeem niet aan een vereiste voldoet, zet een traject in gang om ervoor te zorgen dat het AI systeem aan de vereisten gaat voldoen. Leg deze verplichting zo mogelijk bij de leverancier van het AI systeem.
  • Pas je inkoopvoorwaarden aan. Zorg dat een leverancier van hardware/software transparant is over de AI systemen die het wil gaan leveren en de risico-categorie waar het AI systeem in valt. Waarborg ook dat het AI systeem aan de vereisten blijft voldoen. De leverancier zou dit gedurende het gehele gebruik van het AI systeem moeten monitoren (post-market surveillance) en het AI systeem zo nodig aanpassen.

Hoe kunnen wij hierbij helpen?

  • Uitleg
Binnenkort komt de definitieve tekst beschikbaar van de AI act. Wij kunnen helpen bij de uitleg van de tekst. Wat wordt er bedoeld met ‘human oversight’? Wat valt wel of niet onder de definitie van Artificial Intelligence? Hoe ziet een self assessment eruit?
  • AI risk/impact assessment
Er zijn inmiddels verschillende assessments om de impact van een AI systeem in kaart te brengen. Per use-case, per sector kan een risk/impact assessment er anders uit zien. Zo zal een assessment voor een AI toepassing in de health sector er anders uit zien dan voor een AI toepassing in de vervoerssector. Wij kunnen helpen bij het vinden van een goed toepasbaar assessment. Wij kunnen dit ook helpen uitvoeren. Dat kunnen we doen via het LegalAIR consortium met partners die expert zijn op gebieden zoals data science, cyberveiligheid, data ethiek.
  • Impact Assessment Mensenrechten en Algoritme (IAMA)
Wij hebben ervaring met het uitvoeren van een IAMA. Een organisatie kan zelf een IAMA uitvoeren. De ervaring leert dat het handig is en efficiënter werkt wanneer een IAMA met een externe begeleider wordt uitgevoerd.
  • AI policy
Met de komst van AI tools zoals ChatGPT en Midjourney, is het gebruik van AI toegankelijker en gemakkelijker geworden. Maar wie beslist over welke AI tools gebruikt mogen worden? En heeft een organisatie interne spelregels voor het gebruik mogen maken van dergelijke AI tools? Vraagt inkoop om informatie/garanties over de werking/ontwikkeling/compliance van AI tools? Deze onderwerpen komen aan de orde in een ‘AI policy’. Dit is een document dat we maatwerk maken voor organisaties zodat er verantwoord gebruik gemaakt kan worden van AI in de organisatie.
  • AI audit
Zoals een organisatie laat beoordelen of de bedrijfsvoering aan bepaalde ISO normen voldoet, zo kan een organisatie ook laten beoordelen of een AI systeem voldoet aan vereisten. Ook nu is er al wet- en regelgeving van toepassing op AI systemen. Denk aan privacy (AVG), mensenrechten (grondwet, Europees Handvest), mededinging, consumentenregelgeving, etc. Daar komt nu dus de AI act bij. Bij het in kaart brengen van risico’s verbonden aan een onderneming, hoort ook een onderzoek naar risico’s verbonden aan het gebruik van bepaalde AI systemen. Bijvoorbeeld in het kader van een due diligence bij een fusie/overname. Wij bereiden organisaties voor op een AI audit, bijvoorbeeld een audit naar de auditregels van de non-profit organisatie ForHumanity. Jos van der Wijst is FH auditor.

AI Act - BG.legal overview

AI Act - BG overview afbeelding Voor meer informatie: neem contact op met Jos van der Wijst (wijst@bg.legal). Jos van der Wijst 2 [post_title] => Overeenstemming over de AI Act [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => overeenstemming-over-de-ai-act [to_ping] => [pinged] => [post_modified] => 2023-12-13 15:30:50 [post_modified_gmt] => 2023-12-13 14:30:50 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=40147 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [9] => WP_Post Object ( [ID] => 40067 [post_author] => 6 [post_date] => 2023-12-05 13:30:15 [post_date_gmt] => 2023-12-05 12:30:15 [post_content] => Dit was een deel van de tekst die koffieproducent Moyee, samen met een afbeelding van een waardebon, op haar verpakking had staan. Douwe Egberts (hierna: ‘DE’) reageerde als door een wesp gestoken. Moyee kreeg een boze brief van de advocaat van DE. In het FD vertelt Moyee over deze brief. DE stelde dat Moyee inbreuk zou maken op het auteursrecht van DE en dat consumenten zouden worden misleid. Daarbij werd verwezen naar het bijna honderd jaar oude puntenspaarsysteem van DE. Zelfs prinses Beatrix werd erbij gehaald. Door het afbeelden van de waardebon zou inbreuk worden gemaakt op het auteursrecht en merkenrecht van DE. De begeleidende tekst zou zelfs ‘kleinerend, beledigend en schofferend zijn’. Moyee zou, door het gebruik van de afbeelding, ongerechtvaardigd voordeel hebben getrokken uit de reputatie en het prestige van het puntensysteem van DE.

Afbeelding Moyee

Moyee heeft de afbeelding op haar verpakkingen gebruikt zoals hieronder weergegeven: Afbeelding Moyee Wordt hiermee inbreuk gemaakt op het auteursrecht en/of de merkrechten van DE? Is dit onrechtmatig?

Hoe zit dit juridisch?

AI Moyee gaf aan bij het maken van de afbeelding niet te hebben gekeken naar de afbeelding op de verpakking van DE. Moyee zou AI hebben gebruikt voor het maken van de afbeelding. Daarbij zou de prompt zijn gebruikt: ‘Maak een parodie op een veel gebruikt spaarpuntensysteem’. DE heeft op haar verpakkingen waardebonnen staan zoals hieronder afgebeeld: Afbeelding verpakkingen waardebonnen (Bron: https://voedselbankachterhoek.nl/2020/12/03/koffiepunten-sparen-voor-de-voedselbank/) De kans dat het gebruik van een AI-tool tot een output leidt die veel lijkt op een bestaand, auteursrechtelijk beschermd ontwerp, is aanwezig. Er kan zelfs een output uitkomen die identiek is aan een afbeelding die bij de training is gebruikt. De kans is dus aanwezig dat er met de gebruikte prompt een afbeelding uit komt die veel lijkt op de afbeelding van de waardebon van DE.

Wie is verantwoordelijk?

Het is en blijft de verantwoordelijkheid, en dus aansprakelijkheid, van degene die de output van een AI-systeem gebruikt, om te waarborgen dat de output geen inbreuk maakt op de (IE-)rechten van een ander. In dit geval is het moeilijk voorstelbaar dat een medewerker van Moyee, die de output van de AI-tool zag, geen verband zou leggen met de waardebon van DE.

Parodie

Het uitgangspunt van de Auteurswet is dat een auteursrechtelijk beschermd werk, zoals een afbeelding, alleen door de maker mag worden gebruikt. De maker mag anderen toestemming verlenen om het werk te gebruiken (‘verveelvoudigen’ en ‘openbaar maken’). Echter, de Auteurswet kent een aantal uitzonderingen op dit exclusieve recht. Zo bepaalt artikel 18b Aw: “Als inbreuk op het auteursrecht op een werk van letterkunde, wetenschap of kunst wordt niet beschouwd de openbaarmaking of verveelvoudiging ervan in het kader van een karikatuur, parodie of pastiche mits het gebruik in overeenstemming is met hetgeen naar de regels van het maatschappelijk verkeer redelijkerwijs geoorloofd is.” In de jurisprudentie zijn een aantal richtlijnen ontwikkeld voor wat wel en niet als een ‘parodie’ wordt gezien. Zoals:
  • Een parodie mag geen commercieel karakter of concurrentiemotief hebben;
  • Een nabootsing mag niet verder gaan dan voor de herkenbaarheid van het geparodieerde werk nodig is;
  • Een parodie mag niet nodeloos afbreuk doen aan het origineel.
Is de zin ‘Waarom waardeloze punten sparen voor nog waardelozere cadeautjes’ een parodie? Zelf zou ik de zin niet beschouwen als een parodie. Zeker gezien Moyee aangeeft dat er niet gekeken is naar de waardebon van DE. Alhoewel ik dat een ongeloofwaardige stelling vind. In plaats daarvan zou ik een beroep doen op de vrijheid van meningsuiting.

Merkinbreuk

DE heeft een aantal registraties van de waardebon als (Benelux) (beeld)merk. Deze merken zijn geregistreerd voor, o.a., koffieproducten. Zie bijvoorbeeld: [gallery size="medium" columns="2" ids="40074,40076"]             Deze merkregistraties bieden een solide basis voor het optreden tegen partijen die een vergelijkbare afbeelding gebruiken op of ter promotie van vergelijkbare producten. Maakt Moyee met haar afbeelding inbreuk op de merkrechten van DE? Het antwoord is altijd een subjectieve beoordeling, waarbij het oordeel van de ene rechter anders kan uitvallen dan het oordeel van een andere rechter. Zelf zie ik wel zodanige overeenkomsten dat de kans zeker aanwezig is dat een rechter dit als inbreuk op het merkrecht van DE zou aanmerken.

Conclusie

  • Door AI gegenereerde output (afbeeldingen en/of tekst) kunnen inbreuk maken op de (IE-)rechten van andere partijen. Wanneer je zelf een AI-tool gebruikt, dien je de output kritisch te bekijken. Wanneer je een andere partij content laat maken (afbeeldingen en/of tekst) dan zou ik vragen of deze partij kan garanderen dat de content geen inbreuk maakt op rechten van derden;
  • Een beroep op de ‘parodie’ moet je goed kunnen onderbouwen en slaagt zelden. Zeker in een commerciële context;
  • Een merkregistratie kan een goede basis bieden om op te treden tegen concurrenten die een identiek of vergelijkbare afbeelding, slogan of naam gebruiken. Wij verzorgen merkregistraties.
Voor meer informatie kun je contact opnemen met Jos van der Wijst. Jos van der Wijst 2 [post_title] => “Waarom waardeloze punten sparen voor nog waardelozere cadeautjes” [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => waarom-waardeloze-punten-sparen-voor-nog-waardelozere-cadeautjes [to_ping] => [pinged] => [post_modified] => 2023-12-05 14:00:48 [post_modified_gmt] => 2023-12-05 13:00:48 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=40067 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) ) [post_count] => 10 [current_post] => -1 [before_loop] => 1 [in_the_loop] => [post] => WP_Post Object ( [ID] => 44050 [post_author] => 6 [post_date] => 2024-11-18 13:48:12 [post_date_gmt] => 2024-11-18 12:48:12 [post_content] => Een gemeente gaat, na een aanbesteding, een dienst afnemen waarbij AI wordt gebruikt door de leverancier. De gemeente wil zeker weten dat deze dienst wet- en regelgeving nakomt. Met name Europese digitaliseringsregelgeving zoals de AI Act. De gemeente ziet een, in potentie, afbreukrisico. Voor deze gemeente gaan wij een AI Act compliance check uitvoeren. Wanneer er sprake is van een AI systeem in de zin van de AI Act, dan brengt dat verplichtingen met zich mee. De omvang van deze verplichtingen is afhankelijk van de risico-categorie waar het AI-systeem onder valt. We beginnen met een onderzoek naar de vragen:
  • Wordt hier een AI techniek gebruikt waardoor het voldoet aan de definitie van Artificial Intelligence in de AI Act.
  • Zo ja, in welke risico categorie van de AI Act, valt dit AI-systeem.
  • De AI Act onderscheidt verschillende rollen van partijen in de keten (ontwikkelaar, verkoper, gebruiker). Wie vervult welke rol en voldoet deze partij aan de verplichtingen van die rol.
Wanneer de conclusie van het onderzoek is dat er geen sprake is van een (hoog-risico) AI-systeem, dan betekent dit ook veel minder verplichtingen voor de leverancier en de gemeente. Complexe AI vraagstukken pakken wij op samen met de partners in het LegalAIR verband. Daar werken we samen met partijen met andere disciplines dan legal (ethiek, cybersecurity, data-science, regulatory). Afhankelijk van de vraag, stellen we een multidisciplinair team samen die de vragen beantwoorden. Is jouw organisatie al begonnen met het in kaart brengen van de AI systemen en AI-modellen die jullie gebruiken? Daar begint het mee. Vervolgens zou je van al die AI-systemen en AI-modellen moeten vaststellen of ze vallen onder het bereik van de AI Act. Wanneer dat het geval is dan zou je moeten vaststellen of ze compliant zijn. In een risicoanalyse bepaal je het potentiële risico van een AI systeem. Vervolgens kun je je aandacht vooral richten op die AI systemen die tot hoge risico’s leiden. Heb je hier vragen over of zoek je hier hulp bij, neem dan contact op met Jos van der Wijst. Jos van der Wijst 2 [post_title] => AI Act compliance [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => ai-act-compliance [to_ping] => [pinged] => [post_modified] => 2024-11-18 14:00:28 [post_modified_gmt] => 2024-11-18 13:00:28 [post_content_filtered] => [post_parent] => 0 [guid] => https://bg.legal/?p=44050 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [comment_count] => 0 [current_comment] => -1 [found_posts] => 263 [max_num_pages] => 27 [max_num_comment_pages] => 0 [is_single] => [is_preview] => [is_page] => [is_archive] => 1 [is_date] => [is_year] => [is_month] => [is_day] => [is_time] => [is_author] => [is_category] => [is_tag] => [is_tax] => 1 [is_search] => [is_feed] => [is_comment_feed] => [is_trackback] => [is_home] => [is_privacy_policy] => [is_404] => [is_embed] => [is_paged] => [is_admin] => [is_attachment] => [is_singular] => [is_robots] => [is_favicon] => [is_posts_page] => [is_post_type_archive] => [query_vars_hash:WP_Query:private] => 142cd08274a5c5faff512379bc31bff8 [query_vars_changed:WP_Query:private] => 1 [thumbnails_cached] => [allow_query_attachment_by_filename:protected] => [stopwords:WP_Query:private] => [compat_fields:WP_Query:private] => Array ( [0] => query_vars_hash [1] => query_vars_changed ) [compat_methods:WP_Query:private] => Array ( [0] => init_query_flags [1] => parse_tax_query ) [tribe_is_event] => [tribe_is_multi_posttype] => [tribe_is_event_category] => [tribe_is_event_venue] => [tribe_is_event_organizer] => [tribe_is_event_query] => [tribe_is_past] => [tribe_controller] => Tribe\Events\Views\V2\Query\Event_Query_Controller Object ( [filtering_query:Tribe\Events\Views\V2\Query\Event_Query_Controller:private] => WP_Query Object *RECURSION* ) )
Een gemeente gaat, na een aanbesteding, een dienst afnemen waarbij AI wordt gebruikt door de leverancier. De gemeente wil zeker weten dat deze dienst wet- en regelgeving nakomt. Met name...
Lees meer
De Europese Unie wil met haar digitale strategie ervoor zorgen dat zowel mensen als bedrijven optimaal profiteren van de digitale technologie die ons leven ingrijpend verandert. Deze strategie omvat meer...
Lees meer
Contracten voor AI-toepassingen zijn geen standaard softwarecontracten vanwege de unieke technische kenmerken van AI-software. AI-software is afhankelijk van data en het is moeilijk om van tevoren te voorspellen wat het...
Lees meer
De vormgeving van een gebruiksvoorwerp kan auteursrechtelijk beschermd zijn. Dus ook van bijvoorbeeld een kaasschaaf. De drempel daarvoor blijkt in de praktijk hoog te zijn. Al snel is vormgeving bepaald...
Lees meer
Met de definitieve versie van de AI Act kan de volgende cruciale stap worden genomen, namelijk het toezicht op de naleving ervan. Voor iedereen die AI ontwikkelt, op de markt...
Lees meer
Wat zijn de mogelijkheden van een merkhouder om op te treden tegen de verkoop van (bewerkte) merkproducten? In hoeverre mogen merkproducten worden aangepast voor verdere verkoop?Deze vragen kwamen aan de...
Lees meer
Na een voorstel voor een tekst van de AI Act, wijzigingsvoorstellen van de EU lidstaten en het Europees Parlement en een akkoord op een compromistekst, is de tekst nog een...
Lees meer
De verplichtingen van de AI Act zijn in beginsel niet van toepassing op AI-modellen die onder vrije en open source licenties worden vrijgegeven. Maar wat is Open Source-AI precies en...
Lees meer
Het Europees Parlement, de Lidstaten en de Europese Commissie hebben overeenstemming bereikt over de tekst van de nieuwe AI verordening (AI Act). Wat staat er in de AI Act? Verboden...
Lees meer
Dit was een deel van de tekst die koffieproducent Moyee, samen met een afbeelding van een waardebon, op haar verpakking had staan. Douwe Egberts (hierna: ‘DE’) reageerde als door een...
Lees meer