WP_Query Object
(
[query] => Array
(
[news-type] => blog
)
[query_vars] => Array
(
[news-type] => blog
[error] =>
[m] =>
[p] => 0
[post_parent] =>
[subpost] =>
[subpost_id] =>
[attachment] =>
[attachment_id] => 0
[name] =>
[pagename] =>
[page_id] => 0
[second] =>
[minute] =>
[hour] =>
[day] => 0
[monthnum] => 0
[year] => 0
[w] => 0
[category_name] =>
[tag] =>
[cat] =>
[tag_id] =>
[author] =>
[author_name] =>
[feed] =>
[tb] =>
[paged] => 0
[meta_key] =>
[meta_value] =>
[preview] =>
[s] =>
[sentence] =>
[title] =>
[fields] =>
[menu_order] =>
[embed] =>
[category__in] => Array
(
)
[category__not_in] => Array
(
)
[category__and] => Array
(
)
[post__in] => Array
(
)
[post__not_in] => Array
(
)
[post_name__in] => Array
(
)
[tag__in] => Array
(
)
[tag__not_in] => Array
(
)
[tag__and] => Array
(
)
[tag_slug__in] => Array
(
)
[tag_slug__and] => Array
(
)
[post_parent__in] => Array
(
)
[post_parent__not_in] => Array
(
)
[author__in] => Array
(
[0] => 6
)
[author__not_in] => Array
(
)
[search_columns] => Array
(
)
[ignore_sticky_posts] =>
[suppress_filters] =>
[cache_results] => 1
[update_post_term_cache] => 1
[update_menu_item_cache] =>
[lazy_load_term_meta] => 1
[update_post_meta_cache] => 1
[post_type] =>
[posts_per_page] => 10
[nopaging] =>
[comments_per_page] => 50
[no_found_rows] =>
[taxonomy] => news-type
[term] => blog
[order] => DESC
)
[tax_query] => WP_Tax_Query Object
(
[queries] => Array
(
[0] => Array
(
[taxonomy] => news-type
[terms] => Array
(
[0] => blog
)
[field] => slug
[operator] => IN
[include_children] => 1
)
)
[relation] => AND
[table_aliases:protected] => Array
(
[0] => wp_term_relationships
)
[queried_terms] => Array
(
[news-type] => Array
(
[terms] => Array
(
[0] => blog
)
[field] => slug
)
)
[primary_table] => wp_posts
[primary_id_column] => ID
)
[meta_query] => WP_Meta_Query Object
(
[queries] => Array
(
)
[relation] =>
[meta_table] =>
[meta_id_column] =>
[primary_table] =>
[primary_id_column] =>
[table_aliases:protected] => Array
(
)
[clauses:protected] => Array
(
)
[has_or_relation:protected] =>
)
[date_query] =>
[queried_object] => WP_Term Object
(
[term_id] => 56
[name] => Blog van medewerkers
[slug] => blog
[term_group] => 0
[term_taxonomy_id] => 56
[taxonomy] => news-type
[description] =>
[parent] => 0
[count] => 1415
[filter] => raw
)
[queried_object_id] => 56
[request] => SELECT SQL_CALC_FOUND_ROWS wp_posts.ID
FROM wp_posts LEFT JOIN wp_term_relationships ON (wp_posts.ID = wp_term_relationships.object_id) LEFT JOIN wp_icl_translations wpml_translations
ON wp_posts.ID = wpml_translations.element_id
AND wpml_translations.element_type = CONCAT('post_', wp_posts.post_type)
WHERE 1=1 AND (
wp_term_relationships.term_taxonomy_id IN (56)
) AND wp_posts.post_author IN (6) AND ((wp_posts.post_type = 'post' AND (wp_posts.post_status = 'publish' OR wp_posts.post_status = 'acf-disabled' OR wp_posts.post_status = 'tribe-ea-success' OR wp_posts.post_status = 'tribe-ea-failed' OR wp_posts.post_status = 'tribe-ea-schedule' OR wp_posts.post_status = 'tribe-ea-pending' OR wp_posts.post_status = 'tribe-ea-draft'))) AND ( ( ( wpml_translations.language_code = 'nl' OR (
wpml_translations.language_code = 'nl'
AND wp_posts.post_type IN ( 'attachment' )
AND ( (
( SELECT COUNT(element_id)
FROM wp_icl_translations
WHERE trid = wpml_translations.trid
AND language_code = 'nl'
) = 0
) OR (
( SELECT COUNT(element_id)
FROM wp_icl_translations t2
JOIN wp_posts p ON p.id = t2.element_id
WHERE t2.trid = wpml_translations.trid
AND t2.language_code = 'nl'
AND (
p.post_status = 'publish' OR p.post_status = 'private' OR
( p.post_type='attachment' AND p.post_status = 'inherit' )
)
) = 0 ) )
) ) AND wp_posts.post_type IN ('post','page','attachment','wp_block','wp_template','wp_template_part','wp_navigation','our_sector','our_rechtsgebieden','acf-field-group','bwl_advanced_faq','tribe_venue','tribe_organizer','tribe_events','mc4wp-form','slider-data','actualiteiten','accordion','failissementens','advocaten','blogs','seminar','juridisch-medewerker','backoffice','rechtsgebied-detail' ) ) OR wp_posts.post_type NOT IN ('post','page','attachment','wp_block','wp_template','wp_template_part','wp_navigation','our_sector','our_rechtsgebieden','acf-field-group','bwl_advanced_faq','tribe_venue','tribe_organizer','tribe_events','mc4wp-form','slider-data','actualiteiten','accordion','failissementens','advocaten','blogs','seminar','juridisch-medewerker','backoffice','rechtsgebied-detail' ) )
GROUP BY wp_posts.ID
ORDER BY wp_posts.menu_order, wp_posts.post_date DESC
LIMIT 0, 10
[posts] => Array
(
[0] => WP_Post Object
(
[ID] => 44050
[post_author] => 6
[post_date] => 2024-11-18 13:48:12
[post_date_gmt] => 2024-11-18 12:48:12
[post_content] => Een gemeente gaat, na een aanbesteding, een dienst afnemen waarbij AI wordt gebruikt door de leverancier. De gemeente wil zeker weten dat deze dienst wet- en regelgeving nakomt. Met name Europese digitaliseringsregelgeving zoals de AI Act. De gemeente ziet een, in potentie, afbreukrisico.
Voor deze gemeente gaan wij een AI Act compliance check uitvoeren. Wanneer er sprake is van een AI systeem in de zin van de AI Act, dan brengt dat verplichtingen met zich mee. De omvang van deze verplichtingen is afhankelijk van de risico-categorie waar het AI-systeem onder valt. We beginnen met een onderzoek naar de vragen:
- Wordt hier een AI techniek gebruikt waardoor het voldoet aan de definitie van Artificial Intelligence in de AI Act.
- Zo ja, in welke risico categorie van de AI Act, valt dit AI-systeem.
- De AI Act onderscheidt verschillende rollen van partijen in de keten (ontwikkelaar, verkoper, gebruiker). Wie vervult welke rol en voldoet deze partij aan de verplichtingen van die rol.
Wanneer de conclusie van het onderzoek is dat er geen sprake is van een (hoog-risico) AI-systeem, dan betekent dit ook veel minder verplichtingen voor de leverancier en de gemeente.
Complexe AI vraagstukken pakken wij op samen met de partners in het
LegalAIR verband. Daar werken we samen met partijen met andere disciplines dan legal (ethiek, cybersecurity, data-science, regulatory). Afhankelijk van de vraag, stellen we een multidisciplinair team samen die de vragen beantwoorden.
Is jouw organisatie al begonnen met het in kaart brengen van de AI systemen en
AI-modellen die jullie gebruiken? Daar begint het mee. Vervolgens zou je van al die AI-systemen en AI-modellen moeten vaststellen of ze vallen onder het bereik van de AI Act. Wanneer dat het geval is dan zou je moeten vaststellen of ze compliant zijn. In een risicoanalyse bepaal je het potentiële risico van een AI systeem. Vervolgens kun je je aandacht vooral richten op die AI systemen die tot hoge risico’s leiden.
Heb je hier vragen over of zoek je hier hulp bij, neem dan contact op met
Jos van der Wijst.
[post_title] => AI Act compliance
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => ai-act-compliance
[to_ping] =>
[pinged] =>
[post_modified] => 2024-11-18 14:00:28
[post_modified_gmt] => 2024-11-18 13:00:28
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=44050
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[1] => WP_Post Object
(
[ID] => 43637
[post_author] => 6
[post_date] => 2024-09-19 11:17:00
[post_date_gmt] => 2024-09-19 09:17:00
[post_content] => De Europese Unie wil met haar digitale strategie ervoor zorgen dat zowel mensen als bedrijven optimaal profiteren van de digitale technologie die ons leven ingrijpend verandert. Deze strategie omvat meer dan honderd verschillende soorten wet- en regelgeving, die nieuw zijn, herzien of al bestaan. Deze regels hebben impact op vrijwel elke sector en elk bedrijf binnen de EU. Bedrijven ontkomen tegenwoordig niet meer aan onderwerpen zoals
privacy en
cybersecurity. Hieronder volgt een kort overzicht van de meest relevante regelgeving in het kader van de ‘
digital decade’-strategie van de EU.
- Kern: Reguleert
AI-systemen door risico’s te beoordelen van ‘minimaal risico’ tot ‘onaanvaardbaar risico’. Strenge regels voor hoog-risico toepassingen zoals gezichtsherkenning en medische apparaten.
- Doelgroep: Ontwikkelaars, verkopers, importeurs en gebruikers van AI-systemen in sectoren zoals gezondheidszorg, transport en overheid.
- Status: Van kracht sinds 2 augustus 2024. Gefaseerde verplichtingen: 6 maanden (verboden systemen), 12 maanden (GPAI), 24 maanden (hoog-risico Annex III).
- Kern: Zorgt voor een veiligere online omgeving door platformen verantwoordelijk te houden voor schadelijke inhoud en reguleert online marktplaatsen.
- Doelgroep:
Online platformen (zoals sociale media en e-commerce websites) en consumenten.
- Status: Van kracht sinds 16 november 2022. Voor ‘erg grote platformen’ en zoekmachines al langer van kracht. Voor kleinere platformen sinds 17 februari 2024.
Zie hierbij de DSA flowchart.
- Kern: Stelt eisen aan de toegankelijkheid van producten en diensten (zoals smartphones, websites, geldautomaten en e-commerce) voor mensen met een handicap.
- Doelgroep: Bedrijven die digitale producten en diensten aanbieden en gebruikers met een handicap.
- Status: Van kracht sinds juni 2022.
Nationale wetgeving uiterlijk aan te passen op 28 juni 2025.
- Kern: Bevordert eerlijke toegang tot en gebruik van (vooral niet-persoonlijke) data, tussen bedrijven en overheden, wat innovatie stimuleert.
- Doelgroep: Bedrijven die
data verzamelen, delen of gebruiken, evenals overheden en consumenten.
- Status: Van kracht sinds 11 januari 2024. Verplichtingen van kracht vanaf 12 september 2025.
- Kern: Verbetering van de
cyberveiligheid in essentiële sectoren door striktere beveiligingsvereisten voor bedrijven en overheidsinstanties.
- Doelgroep: Kritieke infrastructuursectoren zoals energie, transport, gezondheidszorg en digitale dienstverleners.
- Status: Van kracht sinds 16 januari 2023. Om te zetten in nationale regelgeving voor 18 oktober 2024. Op dit moment is van de Cyberveiligheidswet alleen een ontwerptekst beschikbaar.
- Kern: Beschermt
persoonsgegevens met strenge regels over het verzamelen, verwerken en bewaren van data binnen de EU.
- Doelgroep: Alle organisaties die persoonsgegevens verwerken, waaronder bedrijven, overheden en non-profitorganisaties.
- Status: Van kracht sinds 2018.
- Kern: Creëert een raamwerk voor datadeling en -beheer, gericht op het verbeteren van transparantie en vertrouwen in
data-uitwisselingssystemen.
- Doelgroep: Overheidsinstanties, bedrijven en data-bemiddelingsdiensten.
- Status: Van kracht sinds 2023.
- Kern: Stimuleert innovatie en
economische groei door overheidsdata open te stellen voor hergebruik.
- Doelgroep: Overheden, publieke instellingen en bedrijven die overheidsdata gebruiken.
- Status: Van kracht sinds 2021 en in Nederland omgezet in de Wet Open Overheid.
- Kern: Richt zich op de aansprakelijkheid van producenten voor schade door gebrekkige producten, met speciale aandacht voor
technologische ontwikkelingen zoals slimme producten en AI.
- Doelgroep: Fabrikanten van consumentengoederen, inclusief AI-gedreven producten.
- Status: Voorstel voor herziening gepresenteerd in september 2022, de onderhandelingen lopen nog.
Andere relevante regelgeving in de ‘
Digital Decade Package’ zijn:
Van AI tot datagebruik en van cybersecurity tot consumentenbescherming, de EU's 'digital decade'-strategie legt een breed scala aan regelgeving op die elke sector raakt. Bedrijven moeten (bij voorkeur proactief) inspelen op deze veranderingen om boetes te vermijden en hun digitale strategieën te versterken.
Heeft u vragen over de impact van deze
regelgeving op uw organisatie of wilt u weten hoe uw bedrijf zich kan voorbereiden op de naleving ervan? Neem dan contact op met
Jos van der Wijst.
[post_title] => Digital decade-regelgeving raakt ieder bedrijf
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => digital-decade-regelgeving-raakt-ieder-bedrijf
[to_ping] =>
[pinged] =>
[post_modified] => 2024-11-14 10:50:19
[post_modified_gmt] => 2024-11-14 09:50:19
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=43637
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[2] => WP_Post Object
(
[ID] => 43226
[post_author] => 6
[post_date] => 2024-08-21 12:05:13
[post_date_gmt] => 2024-08-21 10:05:13
[post_content] => Contracten voor
AI-toepassingen zijn geen standaard softwarecontracten vanwege de unieke technische kenmerken van AI-software. AI-software is afhankelijk van data en het is moeilijk om van tevoren te voorspellen wat het eindproduct zal zijn. Dit betekent dat het moeilijk is om de prestaties van AI-software te garanderen en om te bepalen wie verantwoordelijk is voor ontwikkelingsfouten. Bovendien is er een grote vraag naar hergebruik van getrainde modellen en trainingsdatasets, wat leidt tot complexe kwesties met betrekking tot intellectueel eigendom en gebruiksvoorwaarden.
Standard contractual clauses
Een voorbeeld van een dergelijk contract is het “standard contractual clauses for the procurement of
Artificial Intelligence (AI) by public organisations”.
[1] Dit contract is opgesteld voor overheden die hoog-risico AI systemen aankopen. Het is nog een model contract. Het is opgesteld in het voordeel van aankopende partijen met bepalingen waar leveranciers, normaal gesproken, niet mee akkoord zullen gaan.
Verschillen tussen AI en traditionele software
Een van de belangrijkste technische kenmerken van
AI-software is dat het afhankelijk is van gegevens. Dit betekent dat de kwaliteit van de gegevens die worden gebruikt om het model te trainen van cruciaal belang is voor de prestaties van de AI-software. Als de gegevens van slechte kwaliteit zijn, zal de AI-software waarschijnlijk slecht presteren. Dit wordt vaak aangeduid als "garbage in, garbage out".
Een ander belangrijk kenmerk van AI-software is dat het moeilijk is om ex-post verificatie uit te voeren. Wanneer een getraind model wordt gegenereerd, is het vaak moeilijk voor mensen om het generatieproces en de aard van het getrainde model te begrijpen. Dit maakt het moeilijk om te bepalen wie verantwoordelijk is voor ontwikkelingsfouten.
Bovendien is er een grote vraag naar hergebruik van getrainde modellen en trainingsdatasets. Getrainde modellen kunnen evolueren door middel van extra leren en zijn relatief gemakkelijk om te zetten voor ander gebruik. Dit leidt tot complexe kwesties met betrekking tot intellectueel eigendom en gebruiksvoorwaarden.
Verschillen op een rijtje
Verschillende ontwikkelproces AI en software
Het ontwikkelproces van
standaard software (links: waterval) is ook anders dan
het ontwikkelproces van AI-software (rechts: iteratief proces):
Conclusie
In het licht van deze unieke kenmerken van AI-software, is het belangrijk dat contracten voor AI-toepassingen zorgvuldig worden opgesteld om rekening te houden met deze complexe kwesties. Dit kan helpen om duidelijkheid te scheppen over de rechten en verantwoordelijkheden van de betrokken partijen en om geschillen te voorkomen. Wil je een contract met betrekking tot de ontwikkeling of aankoop van een
AI-toepassing laten opstellen of beoordelen,
neem dan contact op met mij.
Whitepaper
Wij hebben een whitepaper opgesteld met tips voor contacten met betrekking tot
de ontwikkeling /aankoop van AI toepassingen. Waar moet je aan denken bij het opstellen of beoordelen van een dergelijke overeenkomst.
Wanneer je dit whitepaper wilt ontvangen, en geïnformeerd wilt blijven over de uitvoering van AI regelgeving, vul dan onderstaand formulier in.
[1] AI Procurement Clauses template High Risk
[post_title] => Waarom een contract voor het ontwikkelen/kopen van AI toepassingen geen standaard software contract is?
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => waarom-een-contract-voor-het-ontwikkelen-kopen-van-ai-toepassingen-geen-standaard-software-contract-is
[to_ping] =>
[pinged] =>
[post_modified] => 2024-08-27 11:12:56
[post_modified_gmt] => 2024-08-27 09:12:56
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=43226
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[3] => WP_Post Object
(
[ID] => 42982
[post_author] => 6
[post_date] => 2024-07-29 12:04:16
[post_date_gmt] => 2024-07-29 10:04:16
[post_content] => De vormgeving van een gebruiksvoorwerp kan auteursrechtelijk beschermd zijn. Dus ook van bijvoorbeeld
een kaasschaaf. De drempel daarvoor blijkt in de praktijk hoog te zijn. Al snel is vormgeving bepaald door het gebruik of functionele eisen. Maar het kan wel. Aan de onderbouwing worden hogen eisen gesteld.
In een kortgeding procedure liep het niet goed af voor Boska.
[1]
Boska is producent van diverse food gereedschappen zoals kaasschaven, kaasraspen en smeermessen. Haar designafdeling heeft deze ontworpen, zoals de Copenhagenlijn. Sinds 2009 verkoopt PLUS deze in haar supermarkten:
In 2023 eindigt de samenwerking. PLUS vraagt een andere partij om een kaasschaaf, kaasrasp en smeermes te leveren. Deze partij doet dit onder de naam Klaverland.
Boska stelt dat haar
producten auteursrechtelijk zijn beschermd en dat PLUS (en de leverancier) inbreuk daarop maakt door de Klaverblad producten aan te bieden. PLUS heeft de Klaverblad producten vervolgens uit haar winkels en online gehaald. De leverancier en Boska komen niet tot een regeling. Boska stelt in een kortgedingprocedure dat de leverancier inbreuk heeft gemaakt op het auteursrecht van Boska en daarnaast onrechtmatig heeft gehandeld door slaafs na te bootsen.
De vorderingen worden afgewezen. In een goed onderbouwd vonnis, past de rechter het werkbegrip uit de Auteurswet toe, in overeenstemming met de
Auteursrecht richtlijn. In deze casus gaat het om gebruiksvoorwerpen. De toepassing van het werkbegrip is niet anders dan bij andere werken.
Auteursrechtelijke bescherming
Aan een werk worden
twee voorwaarden gesteld; het moet i) nauwkeurig en objectief identificeerbaar en ii) oorspronkelijk zijn.
Aan de eerste voorwaarde is voldaan. Het is voldoende duidelijk waar de auteursrechtelijke bescherming van wordt ingeroepen.
De tweede voorwaarde vormt een probleem. De rechter overweegt: “De rechter moet nagaan of de maker van het product door de keuze van de verschijningsvorm ervan zijn creatieve vermogen op originele wijze tot uitdrukking heeft gebracht door vrije en creatieve keuzen te maken en het product zodanig heeft vormgegeven dat het zijn persoonlijkheid weerspiegelt”. Omdat het een gebruiksvoorwerp is gelden er functionele en technische vereisten. Dat betekent vaak een beperkte ruimte om ‘vrije en creatieve’ keuzes te maken. En daar waar die keuzes bestaan mag het niet overeenstemmen met wat er al bestond (‘het vormgevingserfgoed’).
Boska heeft van de drie producten aangegeven wat de auteursrechtelijk beschermde elementen zijn (o.a. “het handvat is hol, de ‘ronde’ vormgeving van het handvat, het handvat is niet volledig rond, maar is aan de boven- en onderkant afgevlakt”). Boska vat dit samen als een eigen ‘look and feel’ van de producten.
Tijdens de mondelinge behandeling heeft Boska aangegeven dat zij zich niet beroept op de auteursrechtelijke bescherming van één of meerdere specifieke elementen van de Boska producten. Boska beroept zich op de auteursrechtelijke bescherming van de combinatie van deze (stuk voor stuk onbeschermde) elementen. De rechter vindt echter dat het niet duidelijk is welke
beschermingswaardige creativiteit Boska heeft toegepast om met de combinatie van de op zichzelf onbeschermde elementen, een auteursrechtelijk beschermd werk te creëren. Boska heeft onvoldoende onderbouwd op grond waarvan de combinatie van de onbeschermde elementen in de Boska Producten, de persoonlijke visie van de maker tot uiting brengt. Dit had wel van haar verwacht mogen worden.” Een andere uitkomst zou dus mogelijk zijn geweest wanneer Boska beter had onderbouwd waar de vrije en creatieve keuzes zijn gemaakt die afwijken van het vormgevingserfgoed.
Verder overweegt de rechter dat het hier om gebruiksvoorwerpen gaat. Deze hebben naar hun aard een bepaalde
basisvorm. En hoewel die niet per definitie uitgesloten zijn van auteursrechtelijke bescherming, is de basisvorm vaak bepaald door de gebruiksbestemming en daarmee dus functioneel bepaald. De rechtbank overweegt: “Het gaat hierbij bijvoorbeeld om de keuzes die zijn gemaakt met betrekking tot (de ronde vorm, en breedte en lengte van) het handvat, de lengte van het blad en de totale lengte van het product, in het geval van de kaasschaaf en de smeermessen (de vorm van) het blad, en in het geval van de kaasrasp de (hoeveelheid) gaatjes waarmee geraspt kan worden.”
Deze elementen en de combinatie daarvan zijn ingegeven door bruikbaarheid en/of ergonomische overwegingen en ruim in het vormgevingserfgoed aanwezig. Van enige creatieve keuzes om dergelijke elementen in de Boska Producten op te nemen is geen sprake. Ook hier had de beoordeling anders kunnen uitpakken wanneer op dit onderdeel een betere onderbouwing was gegeven. Het kan natuurlijk ook dat er geen andere onderbouwing te geven was.
Kortom, geen auteursrechtelijke bescherming voor de Boska producten.
Slaafse nabootsing
Voor
slaafse nabootsing is vereist dat het ene product een “eigen plaats in de markt” heeft. De leverancier betwist dit ten aanzien van de Boska producten. De leverancier stelt dat Boska merk wellicht wordt herkend door consumenten, maar dat dit niet geldt voor de vormgeving van de Boska producten.
De rechter overweegt dat Boska onvoldoende aannemelijk heeft gemaakt dat de Boska producten voldoende onderscheidend waren en nog steeds zijn toen de Klaverland Producten op de markt kwamen. Uit het vormgevingserfgoed blijkt dat er een aantal kaasschaven, kaasraspen en smeermessen van verschillende producenten op de markt zijn die nauwelijks afwijken van de Boska producten.
Kortom, er is geen sprake van een eigen gezicht op de markt. En dus geen slaafse nabootsing.
Wat betekent dit voor de praktijk:
- Vormgeving van gebruiksvoorwerpen kan auteursrechtelijk beschermd zijn maar de drempel lijkt hoog te zijn;
- Wanneer je auteursrechtelijke bescherming wilt onderbouwen, dan moet je tijdens het design proces zorgen voor een goede dossiervorming (wat is het vormgevingserfgoed, waar wijkt het nieuwe ontwerp af, wat zijn de vrije en creatieve keuzes die daarbij zijn gemaakt.
- Voor concurrenten kan dit ook kansen betekenen. Gebruiksvoorwerpen die niet aan de werktoets voldoen en die geen eigen plaats in de markt hebben, zijn vrij te kopiëren.
Voor meer informatie: neem contact op met mij.
Zie ook mijn eerder
blog hierover.
[1] ECLI:NL:RBMNE:2024:4318, Rechtbank Midden-Nederland, C/16/576257 / KG ZA 24-279 (rechtspraak.nl)
[post_title] => BOSKA kaasschaaf niet auteursrechtelijk beschermd
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => boska-kaasschaaf-niet-auteursrechtelijk-beschermd
[to_ping] =>
[pinged] =>
[post_modified] => 2024-07-29 12:04:16
[post_modified_gmt] => 2024-07-29 10:04:16
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=42982
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[4] => WP_Post Object
(
[ID] => 42515
[post_author] => 6
[post_date] => 2024-06-14 12:02:10
[post_date_gmt] => 2024-06-14 10:02:10
[post_content] => Met de
definitieve versie van de AI Act kan de volgende cruciale stap worden genomen, namelijk het toezicht op de naleving ervan. Voor iedereen die AI ontwikkelt, op de markt brengt of gebruikt is het relevant om te weten wie in Nederland toezicht houdt op
AI-toepassingen. Begin 2025 treden de eerste onderdelen van de AI Act in werking. Dit betekent dat er vanaf dat moment daadwerkelijk toezicht zal worden gehouden op de naleving van de bepalingen/verplichtingen uit de AI Act. In Nederland zal dit voornamelijk door de Autoriteit Persoonsgegevens (AP) worden gedaan, die ook verantwoordelijk is voor toezicht op en handhaving van de AVG. De AP zal hierbij samenwerken met andere instanties, waaronder de Rijksinspectie Digitale Infrastructuur (RDI).
In hun recente, gezamenlijke advies aan het kabinet wordt de noodzaak van samenwerking tussen toezichthouders benadrukt. Ze vragen bovendien om voldoende budget en personeel zodat voorlichting en handhaving rondom AI-toepassingen effectief kan worden uitgevoerd. Door de samenwerking tussen de verschillende toezichthouders zullen AI-gebruikers beter geïnformeerd worden over de wettelijke vereisten die gaan gelden. Dit zorgt ervoor dat bedrijven de juiste stappen kunnen nemen om compliant te worden en blijven.
Hoe gaat het toezicht op AI eruitzien in Nederland?
De AP en de RDI adviseren het kabinet om het toezicht op AI-toepassingen zoveel mogelijk te laten aansluiten bij het bestaande toezicht in verschillende sectoren. Voor AI-producten met een hoog risico die al een
CE-markering nodig hebben, kan het huidige toezicht volgens hen gehandhaafd blijven. Dit betekent bijvoorbeeld dat de Nederlandse Voedsel- en Warenautoriteit (NVWA) speelgoed zal blijven keuren, ook als er AI in verwerkt zit, en dat de Inspectie Gezondheidszorg en Jeugd (IGJ) zal toezien op AI in medische apparaten.
Voor AI-toepassingen met een hoog risico waarvoor momenteel nog geen CE-markering verplicht is, zal het toezicht grotendeels bij de AP komen te liggen. Ongeacht de sector waarin deze systemen worden ingezet, fungeert de AP dan als algemene markttoezichthouder. Deze rol omvat het toezien op onder andere het trainen van AI, transparantie en menselijke controle.
Er zijn echter uitzonderingen op deze algemene toezichtstructuur. Voor de financiële sector zullen de Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) het markttoezicht uitvoeren. Voor kritieke infrastructuur zullen de Inspectie Leefomgeving en Transport (ILT) en de RDI verantwoordelijk zijn. Verder zal het markttoezicht op AI-toepassingen die worden gebruikt in de rechtspraak zo moeten worden vormgegeven dat de onafhankelijkheid van rechterlijke autoriteiten gewaarborgd blijft.
Hieronder zijn twee overzichten uit het advies weergegeven, met de toezichthouders voor
hoog-risico en verboden AI-toepassingen.
Overzicht uit het advies van de toezichthouders per categorie van de AI-toepassingen die hoog-risico zijn onder de AI Act.
Overzicht uit het advies van de toezichthouders per categorie van de AI-toepassingen die verboden zijn onder de AI Act.
Wat betekent dit voor bedrijven die AI inzetten?
Van alle landen uit de
Europese Unie loopt Nederland momenteel voorop met het gereed maken van het nationale toezicht op AI. Dit onderstreept het belang van de naleving van de AI Act als gebruiker, importeur of producent van een AI-toepassing. Zorg er daarom voor dat het gebruik van AI binnen jouw bedrijf op orde is met een van
onze drie assessmentmethodes:
AI Category Assessment: Ontdek in welke risicocategorie jouw AI-systeem valt en welke regels voor jou van toepassing zijn met een op maat gemaakt advies.
AI High Risk Compliance Quickscan: Een praktische tool om snel te controleren of jouw AI-systeem voldoet aan de hoog-risico vereisten van de AI Act.
AI High Risk Conformity Assessment: Een grondige evaluatie waarbij we samen met jou zorgen dat je AI-systeem aan alle wettelijke eisen voldoet.
De komende maanden zal duidelijk worden hoe het kabinet het AI-toezicht in Nederland concreet vormgeeft. Bedrijven die AI inzetten zullen zich in de tussentijd moeten voorbereiden op de eisen uit de AI Act en zorgen dat hun systemen compliant zijn. Neem contact met ons op en ontdek hoe wij je kunnen helpen om aan de nieuwe regelgeving te voldoen en een veilige, verantwoorde inzet van AI-toepassingen te waarborgen.
[post_title] => AI toezicht in Nederland
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => ai-toezicht-in-nederland
[to_ping] =>
[pinged] =>
[post_modified] => 2024-06-14 12:13:49
[post_modified_gmt] => 2024-06-14 10:13:49
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=42515
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[5] => WP_Post Object
(
[ID] => 42219
[post_author] => 6
[post_date] => 2024-05-29 11:13:04
[post_date_gmt] => 2024-05-29 09:13:04
[post_content] => Wat zijn de mogelijkheden van een
merkhouder om op te treden tegen de verkoop van (bewerkte) merkproducten? In hoeverre mogen merkproducten worden aangepast voor verdere verkoop?Deze vragen kwamen aan de orde in een procedure waar
NU.nl over berichtte met de kop “Nederlander mag geen zelfgebouwde LEGO-treinen meer verkopen”
[1]. Ook volwassenen bouwen LEGO speelgoed. Die volwassenen, die zich Adult Fan of LEGO (“AFOL”) noemen, ontwerpen en bouwen constructies met LEGO-bouwstenen. Sommige handelen daar zelfs (professioneel) in. Dan gaat om het constructies zoals:
[gallery size="full" link="file" ids="42226,42228"]
Deze
LEGO-bouwstenen worden dan rechtmatig ingekocht. Soms worden deze bewerkt. Bijvoorbeeld doordat er een logo van een derde partij op wordt afgebeeld. Zoals hierboven het NS logo op de trein. Soms worden LEGO-bouwstenen daarbij bewerkt, zoals onderstaand voorbeeld waarbij een metalen kogellager is aangebracht.
[gallery size="full" link="file" ids="42230,42232"]
Uitputting?
Centraal stond in deze procedure de vraag of het recht van LEGO om zich te verzetten tegen deze verkoop was “
uitgeput”. LEGO verzette zich daartegen met als argument dat de toestand van de LEGO-bouwstenen was aangetast en zonder toestemming van LEGO. En dat zou komen doordat er (een metalen) kogellager in de LEGO-bouwstenen was aangebracht. En daar had LEGO geen toestemming voor verleend. En dat leidde ook tot post-sales klachten.
LEGO beriep zich daarbij op haar
merkrechten. LEGO heeft het woord LEGO als merk geregistreerd. Dit LEGO-woordmerk is op alle bouwstenen aangebracht. Het LEGO blokje zelf is
niet als merk geregistreerd omdat de vorm technisch is bepaald. LEGO heeft wel de vorm van de minifiguurtjes als (vorm)merk geregistreerd:
Oordeel rechter
In dit
kort geding[2] moest de voorzieningenrechter oordelen of inbreuk werd gemaakt op de merkrechten van LEGO. De voorzieningenrechter oordeelde dat sprake was van inbreuk op de merkrechten. Daarbij speelde een rol dat:
- de voorzieningenrechter van belang vond dat de kwaliteit van het plastic van de LEGO-bouwstenen waaraan een (metalen) kogellager is toegevoegd was aangetast en daardoor niet (meer) voldeed aan de (hoge) kwaliteitseisen die daaraan, ook vanuit de voor (kinder)speelgoed geldende eisen voor productveiligheid, worden gesteld;
- tijdens de zitting de voorzieningenrechter zelf heeft kunnen waarnemen dat “de LEGO-bouwstenen waaraan een metalen kogellager is toegevoegd, zogenaamde stress whitening vertonen”.
- er onder meer lood was gedetecteerd in de aangebrachte metalen kogellager, hetgeen LEGO problematisch acht.
- het bedrukken van LEGO-bouwstenen ook kan leiden tot aantasting van de herkomstfunctie van de LEGO-merken;
Dit alles betekende dat degene die deze
LEGO producten aanbood:
- het aanbieden van deze producten moest staken;
- opgave moest doen van de professionele partijen aan wie hij deze producten had verkocht
- een rectificatie moest sturen naar zijn klanten
- een product recall moest uitvoeren onder zijn professionele afnemers (niet zijnde consumenten)
- een dwangsom verschuldigd werd wanneer hij nogmaals inbreuk zou maken
- een kostenvergoeding moest betalen (ruim € 16.000,=).
LEGO had ook gevorderd dat er een opgave gedaan moest worden van de gemaakte winst. Die vordering wordt afgewezen omdat daar, in het kader van dit kort geding, geen spoedeisend belang voor bestond.
Wat betekent dit voor merkhouders
In Nederland kunnen merkhouders zich verzetten tegen de verdere verhandeling van hun
merkproducten wanneer iets aan de toestand van het product is aangepast.
Dat kan zijn:
- dat er iets aan het product is toegevoegd of aangebracht, zoals in dit geval een (metalen) kogellager.
- Of dat er een logo van een derde partij op het product is aangebracht, zoals in dit geval het logo van NS op het treinstel.
Ben je merkhouder en wil je optreden tegen de verdere verhandeling van je (gewijzigd) merkproduct, neem dan contact op met mij om je mogelijkheden tot
handhaving van je merkrecht (of ander
Intellectueel Eigendomsrecht) te bespreken.
Word je hierop aangesproken door een merkhouder, ook dan kunnen wij je adviseren over je juridische positie en mogelijkheden. Neem contact op met mij (
wijst@bg.legal).
[1] NU.nl 28 mei 2024 https://www.nu.nl/economie/6314601/nederlander-mag-geen-zelfgebouwde-lego-treinen-meer-verkopen.html
[2] Rechtbank Den Haag, 28 mei 2024, ECLI:NL:RBDHA:2024:7992
[post_title] => LEGO kan optreden tegen verhandeling van LEGO-bouwstenen en minifiguren
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => lego-kan-optreden-tegen-verhandeling-van-lego-bouwstenen-en-minifiguren
[to_ping] =>
[pinged] =>
[post_modified] => 2024-05-29 14:26:36
[post_modified_gmt] => 2024-05-29 12:26:36
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=42219
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[6] => WP_Post Object
(
[ID] => 42183
[post_author] => 6
[post_date] => 2024-05-24 13:46:51
[post_date_gmt] => 2024-05-24 11:46:51
[post_content] => Na een voorstel voor een tekst van de
AI Act, wijzigingsvoorstellen van de EU lidstaten en het Europees Parlement en een akkoord op een compromistekst, is de tekst nog een keer nagelopen. Dat heeft geleid tot een tekst die op onderdelen nog is aangepast. Die tekst is nu
goedgekeurd.
Wat moet er nu nog gebeuren?
Deze finale tekst moet nog worden gepubliceerd in het Publicatieblad van de Europese Unie.
Tijdslijn
De dag van publicatie is het moment waarop de
termijnen gaan lopen:
- na 20 dagen: de AI Act treedt in werking;
- na 6 maanden: de verboden AI toepassingen mogen niet (meer) op de EU markt beschikbaar zijn;
- na 9 maanden: de Europese Commissie publiceert Codes of Practices voor General Purpose AI models;
- na 12 maanden: verplichtingen voor General Purpose AI Models gelden, Europese Commissie komt met richtlijnen voor het melden van incidenten met hoog risico AI systemen;
- na 18 maanden: de Europese Commissie komt met praktische richtlijnen voor het classificeren van AI systemen;
- na 24 maanden: de Annex III hoog-risico AI systemen moeten aan hun verplichtingen voldoen, de transparantieverplichtingen gelden, de codes of conduct verplichtingen gelden.
- na 36 maanden: de Annex II hoog-risico AI systemen moeten aan hun verplichtingen voldoen.
Wat te doen?
Nu de
tekst van de AI Act definitief is, zal iedereen zich moeten gaan voorbereiden. Natuurlijk is dit het meest urgent voor ontwikkelaars van AI systemen. Maar ook andere partijen moeten zich hierin gaan verdiepen; degene die een AI systeem integreren in hun hardware/software, degene die AI systemen gaan distribueren en degene die AI systemen gaan gebruiken.
AI ontwikkelaars
Zij zullen zich af moeten vragen:
- valt het door mij ontwikkelde
AI systeem onder de definitie van AI (of hoe voorkom ik dat)
- wanneer het er onder valt: in welke risico-categorie valt mijn AI systeem
- voldoe ik aan de vereisten voor die klasse of wat moet ik doen om hieraan te voldoen.
AI gebruikers
Dit zal bijna iedereen zijn. Iedereen zal moeten onderzoeken of zijn/haar organisatie (geïntegreerde) AI systemen gebruikt. En dan zal de leverancier moeten aangeven wat de
risico-categorie is en of aan de vereisten van die risico-categorie is voldaan.
Voor wie gaat dit werk opleveren
De verwachting is dat voor veruit de meeste AI systemen geen of beperkte gevolgen voortvloeien uit de AI Act. Of er gevolgen zijn blijkt na inventarisatie (
AI mapping). Wanneer er wel verboden of hoog-risico AI systemen worden ontwikkeld of gebruikt, dan is er werk aan de winkel. En dan kan 6/24 maanden sneller voorbij zijn dan je denkt.
Hulp?
Mail (
wijst@bg.legal) wanneer je hulp wilt bij:
- onderzoek of naar de classificatie van een AI systeem
- onderzoek of een AI systeem compliant is met
wet- en regelgeving
- de vragen die je moet stellen aan (potentiële) leveranciers van software
[post_title] => Tekst AI Act definitief
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => tekst-ai-act-definitief
[to_ping] =>
[pinged] =>
[post_modified] => 2024-05-24 14:05:37
[post_modified_gmt] => 2024-05-24 12:05:37
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=42183
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[7] => WP_Post Object
(
[ID] => 41358
[post_author] => 6
[post_date] => 2024-02-29 16:03:12
[post_date_gmt] => 2024-02-29 15:03:12
[post_content] => De verplichtingen van de
AI Act zijn in beginsel niet van toepassing op
AI-modellen die onder vrije en open source licenties worden vrijgegeven. Maar wat is Open Source-AI precies en welke uitzonderingen gelden? In deze blog nemen we je mee.
Definitie
Één duidelijke, vaste definitie van
‘open-source’ wordt niet gegeven in de AI Act, maar in de tekst van de Verordening kunnen we wel een aantal aanknopingspunten vinden:
- AI-modellen voor algemene doeleinden, die onder een vrije en open source licentie worden vrijgegeven, worden geacht hoge niveaus van transparantie en openheid te garanderen door hun parameters, met inbegrip van de gewichten, de informatie over de modelarchitectuur en de informatie over het gebruik van het model openbaar te maken.
- Een licentie wordt geacht vrij en open source te zijn wanneer de gebruikers de software en gegevens, inclusief modellen, kunnen runnen, kopiëren, verspreiden, bestuderen, wijzigen en verbeteren op voorwaarde dat de oorspronkelijke leverancier van het model vermeld wordt en de identieke of vergelijkbare distributievoorwaarden worden gerespecteerd.
Uitzonderingen
De verplichtingen van de AI Act zijn zoals gezegd
in beginsel niet van toepassing op
AI-modellen die onder vrije en open source licenties worden vrijgegeven (oftewel: ‘Open Source AI-modellen). Dit is anders wanneer het Open Source AI-systeem op de markt wordt gebracht of in gebruik wordt genomen als AI-systeem met een hoog risico of als het een AI-systeem is dat onder de titels II en IV valt. Hierbij gaat het om verboden AI-toepassingen, GPAI-modellen en ‘bepaalde AI-systemen’ (zoals AI-systemen die beeld-, audio- of video-inhoud genereren of manipuleren om een deep fake te creëren, emotieherkenningssystemen en biometrische categorisatiesystemen).
Om het wat ingewikkelder te maken, geldt op de uitzondering van
GPAI-modellen (waardoor de AI Act toch wél van toepassing is op Open Source AI-modellen), weer een uitzondering die blijkt uit overweging 60f van de AI Act:
AI-modellen voor algemene doeleinden die onder een vrije en open source licentie worden vrijgegeven (hierna: ‘Open Source GPAI’) en waarvan de ‘
parameters, including the weights, the information on the model architecture, and the information on model usage’ openbaar worden gemaakt, zijn uitgezonderd van de
transparantievereisten die aan GPAI’s worden gesteld (in art. 52 van de AI Act). Dus: de verplichtingen uit de AI Act gelden wel voor de Open Source GPAI’s, maar de transparantieverplichtingen niet.
Maar, wanneer deze Open Source GPAI’s een
systeemrisico inhouden, gaat die vlieger niet meer op. Het feit dat het model transparant is en onder een open source licentie wordt vrijgegeven is dan niet voldoende reden om de naleving van de verplichtingen van de AI Act uit te sluiten.
Een systeemrisico
Een systeemrisico is een risico specifiek voor GPAI’s met grote gevolgen voor de interne markt vanwege de reikwijdte ervan, en met daadwerkelijke of redelijkerwijs te verwachten negatieve gevolgen voor de volksgezondheid, de openbare veiligheid, de openbare veiligheid, de grondrechten of de samenleving als geheel, die zich op grote schaal in de waardeketen kunnen verspreiden.
Het kan dus zo zijn dat een Open Source GPAI een systeemrisico inhoudt, waardoor de transparantieverplichtingen voor GPAI’s uit art. 52 alsnog gelden.
Bovendien, onthullen Open Source GPAI’s niet noodzakelijkerwijs substantiële informatie over de dataset die is gebruikt voor het trainen of afstemmen van het model. Hetzelfde geldt voor de informatie over de wijze waarop daarbij de naleving van het auteursrecht is gewaarborgd. De transparantie uitzondering voor Open Source GPAI’s,
geldt daarom dus niet ten aanzien van de verplichting om een samenvatting te maken van de inhoud die is gebruikt voor de modeltraining en de verplichting om een beleid in te voeren om het auteursrecht van de Unie te respecteren.
Dit betekent dat dus in ieder geval, ook als er geen sprake is van een systeemrisico, zal een
Open Source GPAI dus een samenvatting moeten maken van de inhoud die is gebruikt voor de modeltraining en een beleid moeten voeren om het auteursrecht te respecteren.
Samengebracht in een schematisch overzicht ziet het er zo uit:
Verder worden de ontwikkelaars van Open Source instrumenten, diensten, processen of AI-componenten
anders dan GPAI worden aangemoedigd om algemeen aanvaarde documentatiepraktijken toe te passen
, zoals modelkaarten en gegevensbladen, als een manier om het delen van informatie langs de AI-waardeketen te versnellen, waardoor de bevordering van betrouwbare AI-systemen mogelijk wordt.
Waarom worden Open Source AI-modellen uitgezonderd?
Software en gegevens, met inbegrip van modellen, die worden vrijgegeven onder
een open source-licentie waardoor ze openlijk kunnen worden gedeeld en gebruikers ze of gewijzigde versies ervan vrij kunnen openen, gebruiken, wijzigen en verspreiden, kunnen bijdragen aan onderzoek en innovatie op de markt en kunnen aanzienlijke groeikansen bieden voor de economie van de Unie. Dit is een afweging die de Europese wetgever heeft gemaakt, om een
chilling effect op open-source ontwikkeling te voorkomen.
Een open einde
Hoewel Open Source AI-modellen in beginsel zijn vrijgesteld van de verplichtingen van de AI Act, zijn er ook belangrijke uitzonderingen. Vooral wanneer deze systemen worden beschouwd als hoog-risico of vallen onder specifieke categorieën die strengere
transparantie- en compliance-eisen stellen. De vrijstelling van Open Source AI-modellen onderstreept het belang dat de Europese wetgever hecht aan het bevorderen van transparantie, innovatie en groei binnen de AI-sector.
Voor ontwikkelaars en gebruikers van Open Source AI-modellen is het van belang dat zij zich bewust zijn van de relevante wettelijke kaders en de waarde van
best practices in documentatie en naleving, zelfs in de open-source context. Heb je vragen over de impact van de AI Act op Open Source AI-systemen, de specifieke uitzonderingen of hoe je kunt vaststellen of jouw AI-systeem hoog-risico is? Neem dan contact op met
Jos van der Wijst.
[post_title] => Is Open Source-AI vrijgesteld van transparantie eisen?
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => is-open-source-ai-vrijgesteld-van-transparantie-eisen
[to_ping] =>
[pinged] =>
[post_modified] => 2024-03-01 10:54:26
[post_modified_gmt] => 2024-03-01 09:54:26
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=41358
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[8] => WP_Post Object
(
[ID] => 40147
[post_author] => 6
[post_date] => 2023-12-13 14:05:24
[post_date_gmt] => 2023-12-13 13:05:24
[post_content] => Het Europees Parlement, de Lidstaten en de Europese Commissie hebben overeenstemming bereikt over de tekst van de nieuwe AI verordening (AI Act).
Wat staat er in de AI Act?
Verboden toepassingen
Een aantal
AI toepassingen zijn
verboden, zoals
- Het ongericht schrapen van gezichtsbeelden van internet of CCTV-beelden om gezichtsherkenningsdatabases te creëren. Dit omvat dus ook praktijken zoals die van Clearview AI.
- Emotieherkenning op de werkvloer en in onderwijsinstellingen. Met uitzonderingen zoals AI systemen die herkennen dat een chauffeur in slaap is gevallen.
- AI die wordt gebruikt om de kwetsbaarheden van mensen uit te buiten (vanwege hun leeftijd, handicap, sociale of economische situatie).
- AI systemen die op individuele basis het risico voorspellen op het in de toekomst plegen van misdaden (predictive policing software)
- Onder strikte voorwaarden wordt het toegestaan dat autoriteiten met realtime gezichtsherkenningssytemen in de publieke ruimte op zoek gaan naar personen. De lijst van misdrijven is groot en omvat terrorisme, mensenhandel, seksuele uitbuiting, moord, ontvoering, verkrachting, gewapende overval, deelname aan een criminele organisatie, milieucriminaliteit.
Hoog risico AI Act
AI systemen moeten worden ingedeeld in een
risico-categorie. Dit zal de leverancier/ontwikkelaar moeten doen op basis van het beoogd gebruik. De AI systemen die als hoog-risico worden geclassificeerd staan op een bijlage bij de AI act. Voor deze AI systemen zal een mensenrechten Impact Assessment (
IAMA) verplicht zijn. Deze verplichting geldt alleen voor overheidsinstanties en particuliere entiteiten die diensten van algemeen belang verlenen, zoals ziekenhuizen, scholen, banken en verzekeringsmaatschappijen.
De hoog-risico systemen moeten aan verplichtingen voldoen zoals een risico-management systeem, cyberveiligheid en menselijk toezicht.
Voor de meeste
AI systemen zal gelden dat door ‘self-assessment’ moet worden vastgesteld:
- Of een AI systeem valt onder het bereik van de AI verordening
- In welke risico-categorie een AI systeem valt
- Of een AI systeem voldoet aan de vereisten van die risico-categorie.
BG.legal werkt in een consortium aangevoerd door
LegalAIR, aan een
AI Compliance Check. Daarbij maken we ‘vage’ normen toetsbaar en meetbaar. We volgen daarvoor het werk van de standaardisatie instanties die hier aan werken.
General purpose AI systems
Voor deze AI systemen, zoals
ChatGPT, geldt dat zij transparant zullen moeten zijn over hoe zij voldoen aan de AI act. Dit omvat het verstrekken van technische documentatie, het respecteren van auteursrecht en het doen van een gedetailleerde opgave van al het materiaal dat is gebruikt voor het trainen van het model. En niet alleen door de provider van het GPAI systeem, maar ook door partijen die ergens in het ontwikkelproces hebben meegewerkt. Dus de hele keten.
AI regulatory sandbox
MKB bedrijven worden ondersteund bij de ontwikkeling van AI systemen die compliant zijn met de
AI act. Overheden moeten daarvoor gaan werken met de
AI regulatory sandbox. Dit is een afgesloten omgeving waarin (bepaalde aspecten van) een AI systeem, onder toezicht van een toezichthouder, getest kan worden. Een andere vorm is het “real-world-testing”. Noorwegen en de UK kennen dit instrument al. Hoe dit gaat werken moet nog concreet worden ingevuld. Zoals welke AI systemen in aanmerking komen, welke informatie moet worden gedeeld met de toezichthouder, welke informatie wordt later publiek gemaakt, is de toezichthouder bereid om constructief mee te denken om het AI systeem compliant te maken, etc.
Boetes
Aan het handelen in strijd met de AI act zijn hoge boetes verbonden. Er kunnen boetes worden opgelegd tot EUR 35 miljoen of 7% van de wereldwijde omzet.
Wanneer treedt de AI Act in werking?
De definitieve tekst zal nu vertaald moeten worden naar alle EU talen en worden aangenomen door
het Europees Parlement. Vervolgens zal de AI Act in werking treden twee jaar na de datum van publicatie. Maar een aantal verplichtingen zal al een jaar eerder van kracht zijn. Zoals verplichtingen voor hoog-risico AI systemen, powerful AI models, de instanties die conformity assessments uitvoeren en het governance hoofdstuk.
Wat betekent dit in de tussentijd?
Het zou niet verstandig zijn om te wachten tot over twee jaar.
Wat zouden ontwikkelaars van AI systemen moeten doen:
- Van hun AI systeem beoordelen, op basis van het beoogd gebruik, in welke risico-categorie het AI systeem valt.
- Beoordelen of het AI systeem voldoet aan de vereisten van die risico-categorie.
- Wanneer discussie mogelijk is over de vraag of het een verboden of hoog-risico categorie AI systeem is, dit laten vaststellen door een derde partij (AI risk assessment).
- Wanneer het een hoog-risico AI systeem is, voorbereiden dat het compliant zal zijn met de vereisten die de AI act stelt.
- Wanneer onduidelijk is hoe de AI act uitgelegd moet worden voor jouw AI systeem, of een bepaald aspect daarvan, overweeg je te melden voor een
AI regulatory sandbox of voor real-world-testing.
Wat zouden afnemers/gebruikers van AI systemen moeten doen:
- Inventariseer welke AI systemen je organisatie gebruikt. Vraag leveranciers van software of er AI is verwerkt in de software.
- Beoordeel vervolgens of AI systemen worden gebruikt die in de verboden of hoog-risico categorie vallen. Vraag zo nodig je leverancier van software om verklaringen/garanties dat er geen verboden en/of hoog-risico AI systemen worden ingezet.
- Wanneer je gebruik maakt van een verboden AI systeem, faseer dit uit. Ga op zoek naar alternatieven en beëindig het gebruik van dit AI systeem.
- Wanneer je gebruik maakt van een hoog-risico AI systeem, beoordeel of het AI systeem aan de vereisten voldoet. Daar waar het AI systeem niet aan een vereiste voldoet, zet een traject in gang om ervoor te zorgen dat het AI systeem aan de vereisten gaat voldoen. Leg deze verplichting zo mogelijk bij de leverancier van het AI systeem.
- Pas je inkoopvoorwaarden aan. Zorg dat een leverancier van hardware/software transparant is over de AI systemen die het wil gaan leveren en de risico-categorie waar het AI systeem in valt. Waarborg ook dat het AI systeem aan de vereisten blijft voldoen. De leverancier zou dit gedurende het gehele gebruik van het AI systeem moeten monitoren (post-market surveillance) en het AI systeem zo nodig aanpassen.
Hoe kunnen wij hierbij helpen?
Binnenkort komt de definitieve tekst beschikbaar van de AI act. Wij kunnen helpen bij de uitleg van de tekst. Wat wordt er bedoeld met ‘human oversight’? Wat valt wel of niet onder de definitie van Artificial Intelligence? Hoe ziet een self assessment eruit?
AI risk/impact assessment
Er zijn inmiddels verschillende assessments om de impact van een AI systeem in kaart te brengen. Per use-case, per sector kan een risk/impact assessment er anders uit zien. Zo zal een assessment voor een AI toepassing in de health sector er anders uit zien dan voor een AI toepassing in de vervoerssector. Wij kunnen helpen bij het vinden van een goed toepasbaar assessment. Wij kunnen dit ook helpen uitvoeren. Dat kunnen we doen via het LegalAIR consortium met partners die expert zijn op gebieden zoals data science, cyberveiligheid, data ethiek.
Impact Assessment Mensenrechten en Algoritme (IAMA)
Wij hebben ervaring met het uitvoeren van een IAMA. Een organisatie kan zelf een IAMA uitvoeren. De ervaring leert dat het handig is en efficiënter werkt wanneer een IAMA met een externe begeleider wordt uitgevoerd.
Met de komst van AI tools zoals ChatGPT en Midjourney, is het gebruik van AI toegankelijker en gemakkelijker geworden. Maar wie beslist over welke AI tools gebruikt mogen worden? En heeft een organisatie interne spelregels voor het gebruik mogen maken van dergelijke AI tools? Vraagt inkoop om informatie/garanties over de werking/ontwikkeling/compliance van AI tools?
Deze onderwerpen komen aan de orde in een
‘AI policy’. Dit is een document dat we maatwerk maken voor organisaties zodat er verantwoord gebruik gemaakt kan worden van AI in de organisatie.
Zoals een organisatie laat beoordelen of de bedrijfsvoering aan bepaalde ISO normen voldoet, zo kan een organisatie ook laten beoordelen of een AI systeem voldoet aan vereisten. Ook nu is er al wet- en regelgeving van toepassing op AI systemen. Denk aan privacy (AVG), mensenrechten (grondwet, Europees Handvest), mededinging, consumentenregelgeving, etc. Daar komt nu dus de AI act bij. Bij het in kaart brengen van risico’s verbonden aan een onderneming, hoort ook een onderzoek naar risico’s verbonden aan het gebruik van bepaalde AI systemen. Bijvoorbeeld in het kader van een due diligence bij een fusie/overname.
Wij bereiden organisaties voor op een AI audit, bijvoorbeeld een audit naar de auditregels van de non-profit organisatie
ForHumanity. Jos van der Wijst is FH auditor.
AI Act - BG.legal overview
Voor meer informatie: neem contact op met
Jos van der Wijst (wijst@bg.legal).
[post_title] => Overeenstemming over de AI Act
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => overeenstemming-over-de-ai-act
[to_ping] =>
[pinged] =>
[post_modified] => 2023-12-13 15:30:50
[post_modified_gmt] => 2023-12-13 14:30:50
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=40147
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[9] => WP_Post Object
(
[ID] => 40067
[post_author] => 6
[post_date] => 2023-12-05 13:30:15
[post_date_gmt] => 2023-12-05 12:30:15
[post_content] => Dit was een deel van de tekst die koffieproducent Moyee, samen met een afbeelding van een waardebon, op haar verpakking had staan. Douwe Egberts (hierna: ‘DE’) reageerde als door een wesp gestoken. Moyee kreeg een boze brief van de advocaat van DE. In het
FD vertelt Moyee over deze brief. DE stelde dat Moyee
inbreuk zou maken op het
auteursrecht van DE en dat consumenten zouden worden misleid. Daarbij werd verwezen naar het bijna honderd jaar oude puntenspaarsysteem van DE. Zelfs prinses Beatrix werd erbij gehaald. Door het afbeelden van de waardebon zou inbreuk worden gemaakt op het auteursrecht en
merkenrecht van DE. De begeleidende tekst zou zelfs ‘kleinerend, beledigend en schofferend zijn’. Moyee zou, door het gebruik van de afbeelding, ongerechtvaardigd voordeel hebben getrokken uit de reputatie en het prestige van het puntensysteem van DE.
Afbeelding Moyee
Moyee heeft de afbeelding op haar verpakkingen gebruikt zoals hieronder weergegeven:
Wordt hiermee inbreuk gemaakt op het auteursrecht en/of de merkrechten van DE? Is dit onrechtmatig?
Hoe zit dit juridisch?
AI
Moyee gaf aan bij het maken van de afbeelding niet te hebben gekeken naar de afbeelding op de verpakking van DE. Moyee zou AI hebben gebruikt voor het maken van de afbeelding. Daarbij zou de prompt zijn gebruikt: ‘Maak een parodie op een veel gebruikt spaarpuntensysteem’.
DE heeft op haar verpakkingen
waardebonnen staan zoals hieronder afgebeeld:
(Bron:
https://voedselbankachterhoek.nl/2020/12/03/koffiepunten-sparen-voor-de-voedselbank/)
De kans dat het gebruik van een
AI-tool tot een output leidt die veel lijkt op een bestaand, auteursrechtelijk beschermd ontwerp, is aanwezig. Er kan zelfs een output uitkomen die identiek is aan een afbeelding die bij de training is gebruikt. De kans is dus aanwezig dat er met de gebruikte prompt een afbeelding uit komt die veel lijkt op de afbeelding van de waardebon van DE.
Wie is verantwoordelijk?
Het is en blijft de verantwoordelijkheid, en dus
aansprakelijkheid, van degene die de output van een AI-systeem gebruikt, om te waarborgen dat de output geen inbreuk maakt op de
(IE-)rechten van een ander. In dit geval is het moeilijk voorstelbaar dat een medewerker van Moyee, die de output van de AI-tool zag, geen verband zou leggen met de waardebon van DE.
Parodie
Het uitgangspunt van
de Auteurswet is dat een auteursrechtelijk beschermd werk, zoals een afbeelding, alleen door de maker mag worden gebruikt. De maker mag anderen toestemming verlenen om het werk te gebruiken (‘verveelvoudigen’ en ‘openbaar maken’). Echter, de Auteurswet kent een aantal uitzonderingen op dit exclusieve recht. Zo bepaalt artikel 18b Aw:
“Als inbreuk op het auteursrecht op een werk van letterkunde, wetenschap of kunst wordt niet beschouwd de openbaarmaking of verveelvoudiging ervan in het kader van een karikatuur, parodie of pastiche mits het gebruik in overeenstemming is met hetgeen naar de regels van het maatschappelijk verkeer redelijkerwijs geoorloofd is.”
In de jurisprudentie zijn een aantal richtlijnen ontwikkeld voor wat wel en niet als een ‘
parodie’ wordt gezien. Zoals:
- Een parodie mag geen commercieel karakter of concurrentiemotief hebben;
- Een nabootsing mag niet verder gaan dan voor de herkenbaarheid van het geparodieerde werk nodig is;
- Een parodie mag niet nodeloos afbreuk doen aan het origineel.
Is de zin ‘Waarom waardeloze punten sparen voor nog waardelozere cadeautjes’ een parodie? Zelf zou ik de zin niet beschouwen als een parodie. Zeker gezien Moyee aangeeft dat er niet gekeken is naar de waardebon van DE. Alhoewel ik dat een ongeloofwaardige stelling vind. In plaats daarvan zou ik een beroep doen op de vrijheid van meningsuiting.
Merkinbreuk
DE heeft een aantal registraties van de waardebon als (Benelux) (beeld)merk. Deze merken zijn
geregistreerd voor, o.a., koffieproducten. Zie bijvoorbeeld:
[gallery size="medium" columns="2" ids="40074,40076"]
Deze merkregistraties bieden een solide basis voor het optreden tegen partijen die een vergelijkbare afbeelding gebruiken op of ter promotie van vergelijkbare producten.
Maakt Moyee met haar afbeelding inbreuk op de merkrechten van DE? Het antwoord is altijd een subjectieve beoordeling, waarbij het oordeel van de ene rechter anders kan uitvallen dan het oordeel van een andere rechter. Zelf zie ik wel zodanige overeenkomsten dat de kans zeker aanwezig is dat een rechter dit als inbreuk op het merkrecht van DE zou aanmerken.
Conclusie
- Door AI gegenereerde output (afbeeldingen en/of tekst) kunnen inbreuk maken op de (IE-)rechten van andere partijen. Wanneer je zelf een AI-tool gebruikt, dien je de output kritisch te bekijken. Wanneer je een andere partij
content laat maken (afbeeldingen en/of tekst) dan zou ik vragen of deze partij kan garanderen dat de content geen inbreuk maakt op rechten van derden;
- Een beroep op de ‘parodie’ moet je goed kunnen onderbouwen en slaagt zelden. Zeker in een commerciële context;
- Een merkregistratie kan een goede basis bieden om op te treden tegen concurrenten die een
identiek of vergelijkbare afbeelding, slogan of naam gebruiken. Wij verzorgen merkregistraties.
Voor meer informatie kun je contact opnemen met
Jos van der Wijst.
[post_title] => “Waarom waardeloze punten sparen voor nog waardelozere cadeautjes”
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => waarom-waardeloze-punten-sparen-voor-nog-waardelozere-cadeautjes
[to_ping] =>
[pinged] =>
[post_modified] => 2023-12-05 14:00:48
[post_modified_gmt] => 2023-12-05 13:00:48
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=40067
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
)
[post_count] => 10
[current_post] => -1
[before_loop] => 1
[in_the_loop] =>
[post] => WP_Post Object
(
[ID] => 44050
[post_author] => 6
[post_date] => 2024-11-18 13:48:12
[post_date_gmt] => 2024-11-18 12:48:12
[post_content] => Een gemeente gaat, na een aanbesteding, een dienst afnemen waarbij AI wordt gebruikt door de leverancier. De gemeente wil zeker weten dat deze dienst wet- en regelgeving nakomt. Met name
Europese digitaliseringsregelgeving zoals de AI Act. De gemeente ziet een, in potentie, afbreukrisico.
Voor deze gemeente gaan wij een
AI Act compliance check uitvoeren. Wanneer er sprake is van een AI systeem in de zin van de AI Act, dan brengt dat verplichtingen met zich mee. De omvang van deze verplichtingen is afhankelijk van de risico-categorie waar het AI-systeem onder valt. We beginnen met een onderzoek naar de vragen:
- Wordt hier een AI techniek gebruikt waardoor het voldoet aan de definitie van Artificial Intelligence in de AI Act.
- Zo ja, in welke risico categorie van de AI Act, valt dit AI-systeem.
- De AI Act onderscheidt verschillende rollen van partijen in de keten (ontwikkelaar, verkoper, gebruiker). Wie vervult welke rol en voldoet deze partij aan de verplichtingen van die rol.
Wanneer de conclusie van het onderzoek is dat er geen sprake is van een (hoog-risico) AI-systeem, dan betekent dit ook veel minder verplichtingen voor de leverancier en de gemeente.
Complexe AI vraagstukken pakken wij op samen met de partners in het
LegalAIR verband. Daar werken we samen met partijen met andere disciplines dan legal (ethiek, cybersecurity, data-science, regulatory). Afhankelijk van de vraag, stellen we een multidisciplinair team samen die de vragen beantwoorden.
Is jouw organisatie al begonnen met het in kaart brengen van de AI systemen en
AI-modellen die jullie gebruiken? Daar begint het mee. Vervolgens zou je van al die AI-systemen en AI-modellen moeten vaststellen of ze vallen onder het bereik van de AI Act. Wanneer dat het geval is dan zou je moeten vaststellen of ze compliant zijn. In een risicoanalyse bepaal je het potentiële risico van een AI systeem. Vervolgens kun je je aandacht vooral richten op die AI systemen die tot hoge risico’s leiden.
Heb je hier vragen over of zoek je hier hulp bij, neem dan contact op met
Jos van der Wijst.
[post_title] => AI Act compliance
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => ai-act-compliance
[to_ping] =>
[pinged] =>
[post_modified] => 2024-11-18 14:00:28
[post_modified_gmt] => 2024-11-18 13:00:28
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=44050
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[comment_count] => 0
[current_comment] => -1
[found_posts] => 263
[max_num_pages] => 27
[max_num_comment_pages] => 0
[is_single] =>
[is_preview] =>
[is_page] =>
[is_archive] => 1
[is_date] =>
[is_year] =>
[is_month] =>
[is_day] =>
[is_time] =>
[is_author] =>
[is_category] =>
[is_tag] =>
[is_tax] => 1
[is_search] =>
[is_feed] =>
[is_comment_feed] =>
[is_trackback] =>
[is_home] =>
[is_privacy_policy] =>
[is_404] =>
[is_embed] =>
[is_paged] =>
[is_admin] =>
[is_attachment] =>
[is_singular] =>
[is_robots] =>
[is_favicon] =>
[is_posts_page] =>
[is_post_type_archive] =>
[query_vars_hash:WP_Query:private] => 142cd08274a5c5faff512379bc31bff8
[query_vars_changed:WP_Query:private] => 1
[thumbnails_cached] =>
[allow_query_attachment_by_filename:protected] =>
[stopwords:WP_Query:private] =>
[compat_fields:WP_Query:private] => Array
(
[0] => query_vars_hash
[1] => query_vars_changed
)
[compat_methods:WP_Query:private] => Array
(
[0] => init_query_flags
[1] => parse_tax_query
)
[tribe_is_event] =>
[tribe_is_multi_posttype] =>
[tribe_is_event_category] =>
[tribe_is_event_venue] =>
[tribe_is_event_organizer] =>
[tribe_is_event_query] =>
[tribe_is_past] =>
[tribe_controller] => Tribe\Events\Views\V2\Query\Event_Query_Controller Object
(
[filtering_query:Tribe\Events\Views\V2\Query\Event_Query_Controller:private] => WP_Query Object
*RECURSION*
)
)
Een gemeente gaat, na een aanbesteding, een dienst afnemen waarbij AI wordt gebruikt door de leverancier. De gemeente wil zeker weten dat deze dienst wet- en regelgeving nakomt. Met name...
Lees meer
De Europese Unie wil met haar digitale strategie ervoor zorgen dat zowel mensen als bedrijven optimaal profiteren van de digitale technologie die ons leven ingrijpend verandert. Deze strategie omvat meer...
Lees meer
Contracten voor AI-toepassingen zijn geen standaard softwarecontracten vanwege de unieke technische kenmerken van AI-software. AI-software is afhankelijk van data en het is moeilijk om van tevoren te voorspellen wat het...
Lees meer
De vormgeving van een gebruiksvoorwerp kan auteursrechtelijk beschermd zijn. Dus ook van bijvoorbeeld een kaasschaaf. De drempel daarvoor blijkt in de praktijk hoog te zijn. Al snel is vormgeving bepaald...
Lees meer
Met de definitieve versie van de AI Act kan de volgende cruciale stap worden genomen, namelijk het toezicht op de naleving ervan. Voor iedereen die AI ontwikkelt, op de markt...
Lees meer
Wat zijn de mogelijkheden van een merkhouder om op te treden tegen de verkoop van (bewerkte) merkproducten? In hoeverre mogen merkproducten worden aangepast voor verdere verkoop?Deze vragen kwamen aan de...
Lees meer
Na een voorstel voor een tekst van de AI Act, wijzigingsvoorstellen van de EU lidstaten en het Europees Parlement en een akkoord op een compromistekst, is de tekst nog een...
Lees meer
De verplichtingen van de AI Act zijn in beginsel niet van toepassing op AI-modellen die onder vrije en open source licenties worden vrijgegeven. Maar wat is Open Source-AI precies en...
Lees meer
Het Europees Parlement, de Lidstaten en de Europese Commissie hebben overeenstemming bereikt over de tekst van de nieuwe AI verordening (AI Act). Wat staat er in de AI Act? Verboden...
Lees meer
Dit was een deel van de tekst die koffieproducent Moyee, samen met een afbeelding van een waardebon, op haar verpakking had staan. Douwe Egberts (hierna: ‘DE’) reageerde als door een...
Lees meer