WP_Query Object
(
[query] => Array
(
[news-type] => blog
)
[query_vars] => Array
(
[news-type] => blog
[error] =>
[m] =>
[p] => 0
[post_parent] =>
[subpost] =>
[subpost_id] =>
[attachment] =>
[attachment_id] => 0
[name] =>
[pagename] =>
[page_id] => 0
[second] =>
[minute] =>
[hour] =>
[day] => 0
[monthnum] => 0
[year] => 0
[w] => 0
[category_name] =>
[tag] =>
[cat] =>
[tag_id] =>
[author] =>
[author_name] =>
[feed] =>
[tb] =>
[paged] => 0
[meta_key] =>
[meta_value] =>
[preview] =>
[s] =>
[sentence] =>
[title] =>
[fields] =>
[menu_order] =>
[embed] =>
[category__in] => Array
(
)
[category__not_in] => Array
(
)
[category__and] => Array
(
)
[post__in] => Array
(
)
[post__not_in] => Array
(
)
[post_name__in] => Array
(
)
[tag__in] => Array
(
)
[tag__not_in] => Array
(
)
[tag__and] => Array
(
)
[tag_slug__in] => Array
(
)
[tag_slug__and] => Array
(
)
[post_parent__in] => Array
(
)
[post_parent__not_in] => Array
(
)
[author__in] => Array
(
[0] => 6
)
[author__not_in] => Array
(
)
[search_columns] => Array
(
)
[ignore_sticky_posts] =>
[suppress_filters] =>
[cache_results] => 1
[update_post_term_cache] => 1
[update_menu_item_cache] =>
[lazy_load_term_meta] => 1
[update_post_meta_cache] => 1
[post_type] =>
[posts_per_page] => 10
[nopaging] =>
[comments_per_page] => 50
[no_found_rows] =>
[taxonomy] => news-type
[term] => blog
[order] => DESC
)
[tax_query] => WP_Tax_Query Object
(
[queries] => Array
(
[0] => Array
(
[taxonomy] => news-type
[terms] => Array
(
[0] => blog
)
[field] => slug
[operator] => IN
[include_children] => 1
)
)
[relation] => AND
[table_aliases:protected] => Array
(
[0] => wp_term_relationships
)
[queried_terms] => Array
(
[news-type] => Array
(
[terms] => Array
(
[0] => blog
)
[field] => slug
)
)
[primary_table] => wp_posts
[primary_id_column] => ID
)
[meta_query] => WP_Meta_Query Object
(
[queries] => Array
(
)
[relation] =>
[meta_table] =>
[meta_id_column] =>
[primary_table] =>
[primary_id_column] =>
[table_aliases:protected] => Array
(
)
[clauses:protected] => Array
(
)
[has_or_relation:protected] =>
)
[date_query] =>
[queried_object] => WP_Term Object
(
[term_id] => 56
[name] => Blog van medewerkers
[slug] => blog
[term_group] => 0
[term_taxonomy_id] => 56
[taxonomy] => news-type
[description] =>
[parent] => 0
[count] => 1440
[filter] => raw
)
[queried_object_id] => 56
[request] => SELECT SQL_CALC_FOUND_ROWS wp_posts.ID
FROM wp_posts LEFT JOIN wp_term_relationships ON (wp_posts.ID = wp_term_relationships.object_id) LEFT JOIN wp_icl_translations wpml_translations
ON wp_posts.ID = wpml_translations.element_id
AND wpml_translations.element_type = CONCAT('post_', wp_posts.post_type)
WHERE 1=1 AND (
wp_term_relationships.term_taxonomy_id IN (56)
) AND wp_posts.post_author IN (6) AND ((wp_posts.post_type = 'post' AND (wp_posts.post_status = 'publish' OR wp_posts.post_status = 'acf-disabled' OR wp_posts.post_status = 'tribe-ea-success' OR wp_posts.post_status = 'tribe-ea-failed' OR wp_posts.post_status = 'tribe-ea-schedule' OR wp_posts.post_status = 'tribe-ea-pending' OR wp_posts.post_status = 'tribe-ea-draft'))) AND ( ( ( wpml_translations.language_code = 'nl' OR (
wpml_translations.language_code = 'nl'
AND wp_posts.post_type IN ( 'attachment' )
AND ( (
( SELECT COUNT(element_id)
FROM wp_icl_translations
WHERE trid = wpml_translations.trid
AND language_code = 'nl'
) = 0
) OR (
( SELECT COUNT(element_id)
FROM wp_icl_translations t2
JOIN wp_posts p ON p.id = t2.element_id
WHERE t2.trid = wpml_translations.trid
AND t2.language_code = 'nl'
AND (
p.post_status = 'publish' OR p.post_status = 'private' OR
( p.post_type='attachment' AND p.post_status = 'inherit' )
)
) = 0 ) )
) ) AND wp_posts.post_type IN ('post','page','attachment','wp_block','wp_template','wp_template_part','wp_navigation','our_sector','our_rechtsgebieden','acf-field-group','tribe_venue','tribe_organizer','tribe_events','mc4wp-form','slider-data','actualiteiten','accordion','failissementens','advocaten','blogs','seminar','juridisch-medewerker','backoffice','rechtsgebied-detail' ) ) OR wp_posts.post_type NOT IN ('post','page','attachment','wp_block','wp_template','wp_template_part','wp_navigation','our_sector','our_rechtsgebieden','acf-field-group','tribe_venue','tribe_organizer','tribe_events','mc4wp-form','slider-data','actualiteiten','accordion','failissementens','advocaten','blogs','seminar','juridisch-medewerker','backoffice','rechtsgebied-detail' ) )
GROUP BY wp_posts.ID
ORDER BY wp_posts.menu_order, wp_posts.post_date DESC
LIMIT 0, 10
[posts] => Array
(
[0] => WP_Post Object
(
[ID] => 44695
[post_author] => 6
[post_date] => 2025-02-27 09:40:15
[post_date_gmt] => 2025-02-27 08:40:15
[post_content] => De Europese Unie introduceert nieuwe digitaliseringsregels die de manier waarop organisaties data verzamelen, delen en gebruiken ingrijpend veranderen. De EU Data Act richt zich op eerlijke toegang tot data, het bevorderen van innovatie en het waarborgen van privacy en beveiliging. Dit heeft grote implicaties voor bedrijven die data gebruiken of softwaretools ontwikkelen voor dataverwerking. Zie onderstaande afbeelding:
Wat verandert er?
De EU Data Act introduceert:
Data-deling verplichtingen: Organisaties moeten data transparant delen, vooral als deze afkomstig is van verbonden apparaten (apparaten verbonden met het internet).
Beveiligings- en privacy-eisen: Strengere regels voor data-opslag en verwerking, vooral bij het werken met cloud providers buiten de EU.
Concurrentiebevordering: Voorkomen van data-monopolies en bevorderen van eerlijke toegang tot data.
Wat betekent dit voor uw organisatie?
Voor datagebruikers: U moet nagaan of uw dataverwerkingsprocessen voldoen aan de nieuwe eisen. Het delen van data wordt verplicht, wat kan leiden tot nieuwe zakelijke kansen, maar ook tot grotere nalevingsverplichtingen.
Voor softwareontwikkelaars: Uw tools moeten voldoen aan nieuwe interoperabiliteits- en beveiligingsnormen. Dit vraagt om updates en mogelijk herontwerp van bestaande software.
Wat is nieuw?
De Europese Commissie heeft haar FAQ vernieuwd. Op een aantal onderdelen is nieuwe verduidelijking toegevoegd. We wachten nog steeds op
de modelovereenkomsten die gedeeld zouden worden.
Wat te doen?
Wilt u weten hoe deze regelgeving uw organisatie beïnvloedt en welke stappen nodig zijn om
compliant te blijven? Of wilt u weten hoe u toegang kunt krijgen tot deze
data om daar een commercieel product / dienst van te maken?
Neem contact op met
Jos van der Wijst voor een persoonlijk adviesgesprek. We helpen u graag om kansen te benutten en risico’s te beheersen.

[post_title] => Impact van EU digitaliseringsregelgeving op data gedreven organisaties
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => impact-van-eu-digitaliseringsregelgeving-op-data-gedreven-organisaties
[to_ping] =>
[pinged] =>
[post_modified] => 2025-02-27 09:41:57
[post_modified_gmt] => 2025-02-27 08:41:57
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=44695
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[1] => WP_Post Object
(
[ID] => 44611
[post_author] => 6
[post_date] => 2025-02-26 11:09:04
[post_date_gmt] => 2025-02-26 10:09:04
[post_content] => De Europese Commissie heeft recent
richtlijnen gepubliceerd over de definitie van AI-systemen en
verboden AI-praktijken in het kader van de AI Act. Deze richtlijnen helpen te bepalen of een softwaretoepassing onder de AI-Act valt en welke AI-toepassingen verboden zijn vanwege onaanvaardbare risico’s, zoals manipulatieve technieken en sociale scoring. Dit biedt duidelijkheid voor ontwikkelaars en gebruikers van AI-systemen en helpt bij het waarborgen van ethisch en veilig AI-gebruik in Europa.
AI-Definitie: Wat valt eronder?
De nieuwe richtlijnen verduidelijken dat een
AI-systeem elke softwaretoepassing is die gebruikmaakt van machine learning, logica-gebaseerde systemen of statistische benaderingen om autonome beslissingen te nemen of aanbevelingen te doen. Dit geldt ook voor toepassingen die menselijke interacties simuleren, zoals chatbots en virtuele assistenten. De definitie is breed en evolueert mee met technologische ontwikkelingen. De EU definitie lijkt op de internationaal geaccepteerde EOCD definitie.
Verboden AI-praktijken
Sinds 2 februari 2025 zijn bepaalde AI-toepassingen in de EU verboden omdat ze onaanvaardbare risico’s vormen voor de maatschappij. Voorbeelden hiervan zijn:
Sociale scoring: AI-systemen die individuen rangschikken op basis van sociaal gedrag of persoonlijke kenmerken.
Manipulatieve technieken: AI die psychologische technieken gebruikt om menselijk gedrag te beïnvloeden, zoals deepfake-technologieën en verslavingsmechanismen in sociale media.
Biometrische surveillance: In de meeste gevallen is real-time biometrische surveillance in openbare ruimtes verboden.
Wat betekent dit voor uw organisatie?
Voor AI-ontwikkelaars: Het is cruciaal om uw AI-systemen te evalueren aan de hand van de nieuwe definitie. Als uw toepassing als AI-systeem wordt geclassificeerd, moet deze voldoen aan de AI Act, inclusief transparantie- en veiligheidsvereisten.
Voor AI-gebruikers: Controleer of de AI-tools die u inzet compliant zijn met de AI Act en dat verboden toepassingen niet in uw processen zijn geïntegreerd.
Voor investeerders in AI: Beoordeel investeringsmogelijkheden kritisch op compliance met de AI Act om juridische en financiële risico's te vermijden.
Wat te doen?
Wilt u weten of uw AI-systemen onder de nieuwe definitie vallen of voldoen aan de regels voor verboden AI-praktijken? BG.legal helpt u graag bij compliance-checks, AI policy/AI governance documenten en strategisch advies. Voor complexe AI vraagstukken werken wij samen met experts in het
LegalAIR verband. Daar werken we samen met partner op het gebied van ethiek, techniek en cybersecurity. Neem vandaag nog contact met ons op om uw
AI-strategie toekomstbestendig te maken.
Zie
hier de producten van de AI diensten van BG.legal en van LegalAIR.

[post_title] => Nieuwe EU-richtlijnen over AI-definitie en verboden AI-praktijken
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => nieuwe-eu-richtlijnen-over-ai-definitie-en-verboden-ai-praktijken
[to_ping] =>
[pinged] =>
[post_modified] => 2025-02-26 11:09:04
[post_modified_gmt] => 2025-02-26 10:09:04
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=44611
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[2] => WP_Post Object
(
[ID] => 44050
[post_author] => 6
[post_date] => 2024-11-18 13:48:12
[post_date_gmt] => 2024-11-18 12:48:12
[post_content] => Een gemeente gaat, na een aanbesteding, een dienst afnemen waarbij AI wordt gebruikt door de leverancier. De gemeente wil zeker weten dat deze dienst wet- en regelgeving nakomt. Met name
Europese digitaliseringsregelgeving zoals de AI Act. De gemeente ziet een, in potentie, afbreukrisico.
Voor deze gemeente gaan wij een
AI Act compliance check uitvoeren. Wanneer er sprake is van een AI systeem in de zin van de AI Act, dan brengt dat verplichtingen met zich mee. De omvang van deze verplichtingen is afhankelijk van de risico-categorie waar het AI-systeem onder valt. We beginnen met een onderzoek naar de vragen:
- Wordt hier een AI techniek gebruikt waardoor het voldoet aan de definitie van Artificial Intelligence in de AI Act.
- Zo ja, in welke risico categorie van de AI Act, valt dit AI-systeem.
- De AI Act onderscheidt verschillende rollen van partijen in de keten (ontwikkelaar, verkoper, gebruiker). Wie vervult welke rol en voldoet deze partij aan de verplichtingen van die rol.
Wanneer de conclusie van het onderzoek is dat er geen sprake is van een (hoog-risico) AI-systeem, dan betekent dit ook veel minder verplichtingen voor de leverancier en de gemeente.
Complexe AI vraagstukken pakken wij op samen met de partners in het
LegalAIR verband. Daar werken we samen met partijen met andere disciplines dan legal (ethiek, cybersecurity, data-science, regulatory). Afhankelijk van de vraag, stellen we een multidisciplinair team samen die de vragen beantwoorden.
Is jouw organisatie al begonnen met het in kaart brengen van de AI systemen en
AI-modellen die jullie gebruiken? Daar begint het mee. Vervolgens zou je van al die AI-systemen en AI-modellen moeten vaststellen of ze vallen onder het bereik van de AI Act. Wanneer dat het geval is dan zou je moeten vaststellen of ze compliant zijn. In een risicoanalyse bepaal je het potentiële risico van een AI systeem. Vervolgens kun je je aandacht vooral richten op die AI systemen die tot hoge risico’s leiden.
Heb je hier vragen over of zoek je hier hulp bij, neem dan contact op met
Jos van der Wijst.

[post_title] => AI Act compliance
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => ai-act-compliance
[to_ping] =>
[pinged] =>
[post_modified] => 2024-11-18 14:00:28
[post_modified_gmt] => 2024-11-18 13:00:28
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=44050
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[3] => WP_Post Object
(
[ID] => 43637
[post_author] => 6
[post_date] => 2024-09-19 11:17:00
[post_date_gmt] => 2024-09-19 09:17:00
[post_content] => De Europese Unie wil met haar digitale strategie ervoor zorgen dat zowel mensen als bedrijven optimaal profiteren van de digitale technologie die ons leven ingrijpend verandert. Deze strategie omvat meer dan honderd verschillende soorten wet- en regelgeving, die nieuw zijn, herzien of al bestaan. Deze regels hebben impact op vrijwel elke sector en elk bedrijf binnen de EU. Bedrijven ontkomen tegenwoordig niet meer aan onderwerpen zoals
privacy en
cybersecurity. Hieronder volgt een kort overzicht van de meest relevante regelgeving in het kader van de ‘
digital decade’-strategie van de EU.
- Kern: Reguleert
AI-systemen door risico’s te beoordelen van ‘minimaal risico’ tot ‘onaanvaardbaar risico’. Strenge regels voor hoog-risico toepassingen zoals gezichtsherkenning en medische apparaten.
- Doelgroep: Ontwikkelaars, verkopers, importeurs en gebruikers van AI-systemen in sectoren zoals gezondheidszorg, transport en overheid.
- Status: Van kracht sinds 2 augustus 2024. Gefaseerde verplichtingen: 6 maanden (verboden systemen), 12 maanden (GPAI), 24 maanden (hoog-risico Annex III).
- Kern: Zorgt voor een veiligere online omgeving door platformen verantwoordelijk te houden voor schadelijke inhoud en reguleert online marktplaatsen.
- Doelgroep:
Online platformen (zoals sociale media en e-commerce websites) en consumenten.
- Status: Van kracht sinds 16 november 2022. Voor ‘erg grote platformen’ en zoekmachines al langer van kracht. Voor kleinere platformen sinds 17 februari 2024.
Zie hierbij de DSA flowchart.
Zie hierbij de DSA ACM blog.
- Kern: Stelt eisen aan de toegankelijkheid van producten en diensten (zoals smartphones, websites, geldautomaten en e-commerce) voor mensen met een handicap.
- Doelgroep: Bedrijven die digitale producten en diensten aanbieden en gebruikers met een handicap.
- Status: Van kracht sinds juni 2022.
Nationale wetgeving uiterlijk aan te passen op 28 juni 2025.
- Kern: Bevordert eerlijke toegang tot en gebruik van (vooral niet-persoonlijke) data, tussen bedrijven en overheden, wat innovatie stimuleert.
- Doelgroep: Bedrijven die
data verzamelen, delen of gebruiken, evenals overheden en consumenten.
- Status: Van kracht sinds 11 januari 2024. Verplichtingen van kracht vanaf 12 september 2025.
- Kern: Verbetering van de
cyberveiligheid in essentiële sectoren door striktere beveiligingsvereisten voor bedrijven en overheidsinstanties.
- Doelgroep: Kritieke infrastructuursectoren zoals energie, transport, gezondheidszorg en digitale dienstverleners.
- Status: Van kracht sinds 16 januari 2023. Om te zetten in nationale regelgeving voor 18 oktober 2024. Op dit moment is van de Cyberveiligheidswet alleen een ontwerptekst beschikbaar.
- Kern: Beschermt
persoonsgegevens met strenge regels over het verzamelen, verwerken en bewaren van data binnen de EU.
- Doelgroep: Alle organisaties die persoonsgegevens verwerken, waaronder bedrijven, overheden en non-profitorganisaties.
- Status: Van kracht sinds 2018.
- Kern: Creëert een raamwerk voor datadeling en -beheer, gericht op het verbeteren van transparantie en vertrouwen in
data-uitwisselingssystemen.
- Doelgroep: Overheidsinstanties, bedrijven en data-bemiddelingsdiensten.
- Status: Van kracht sinds 2023.
- Kern: Stimuleert innovatie en
economische groei door overheidsdata open te stellen voor hergebruik.
- Doelgroep: Overheden, publieke instellingen en bedrijven die overheidsdata gebruiken.
- Status: Van kracht sinds 2021 en in Nederland omgezet in de Wet Open Overheid.
- Kern: Richt zich op de aansprakelijkheid van producenten voor schade door gebrekkige producten, met speciale aandacht voor
technologische ontwikkelingen zoals slimme producten en AI.
- Doelgroep: Fabrikanten van consumentengoederen, inclusief AI-gedreven producten.
- Status: Voorstel voor herziening gepresenteerd in september 2022, de onderhandelingen lopen nog.
Andere relevante regelgeving in de ‘
Digital Decade Package’ zijn:
Van AI tot datagebruik en van cybersecurity tot consumentenbescherming, de EU's 'digital decade'-strategie legt een breed scala aan regelgeving op die elke sector raakt. Bedrijven moeten (bij voorkeur proactief) inspelen op deze veranderingen om boetes te vermijden en hun digitale strategieën te versterken.
Heeft u vragen over de impact van deze
regelgeving op uw organisatie of wilt u weten hoe uw bedrijf zich kan voorbereiden op de naleving ervan? Neem dan contact op met
Jos van der Wijst.

[post_title] => Digital decade-regelgeving raakt ieder bedrijf
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => digital-decade-regelgeving-raakt-ieder-bedrijf
[to_ping] =>
[pinged] =>
[post_modified] => 2025-02-17 14:29:30
[post_modified_gmt] => 2025-02-17 13:29:30
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=43637
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[4] => WP_Post Object
(
[ID] => 43226
[post_author] => 6
[post_date] => 2024-08-21 12:05:13
[post_date_gmt] => 2024-08-21 10:05:13
[post_content] => Contracten voor
AI-toepassingen zijn geen standaard softwarecontracten vanwege de unieke technische kenmerken van AI-software. AI-software is afhankelijk van data en het is moeilijk om van tevoren te voorspellen wat het eindproduct zal zijn. Dit betekent dat het moeilijk is om de prestaties van AI-software te garanderen en om te bepalen wie verantwoordelijk is voor ontwikkelingsfouten. Bovendien is er een grote vraag naar hergebruik van getrainde modellen en trainingsdatasets, wat leidt tot complexe kwesties met betrekking tot intellectueel eigendom en gebruiksvoorwaarden.
Standard contractual clauses
Een voorbeeld van een dergelijk contract is het “standard contractual clauses for the procurement of
Artificial Intelligence (AI) by public organisations”.
[1] Dit contract is opgesteld voor overheden die hoog-risico AI systemen aankopen. Het is nog een model contract. Het is opgesteld in het voordeel van aankopende partijen met bepalingen waar leveranciers, normaal gesproken, niet mee akkoord zullen gaan.
Verschillen tussen AI en traditionele software
Een van de belangrijkste technische kenmerken van
AI-software is dat het afhankelijk is van gegevens. Dit betekent dat de kwaliteit van de gegevens die worden gebruikt om het model te trainen van cruciaal belang is voor de prestaties van de AI-software. Als de gegevens van slechte kwaliteit zijn, zal de AI-software waarschijnlijk slecht presteren. Dit wordt vaak aangeduid als "garbage in, garbage out".
Een ander belangrijk kenmerk van AI-software is dat het moeilijk is om ex-post verificatie uit te voeren. Wanneer een getraind model wordt gegenereerd, is het vaak moeilijk voor mensen om het generatieproces en de aard van het getrainde model te begrijpen. Dit maakt het moeilijk om te bepalen wie verantwoordelijk is voor ontwikkelingsfouten.
Bovendien is er een grote vraag naar hergebruik van getrainde modellen en trainingsdatasets. Getrainde modellen kunnen evolueren door middel van extra leren en zijn relatief gemakkelijk om te zetten voor ander gebruik. Dit leidt tot complexe kwesties met betrekking tot intellectueel eigendom en gebruiksvoorwaarden.
Verschillen op een rijtje
Verschillende ontwikkelproces AI en software
Het ontwikkelproces van
standaard software (links: waterval) is ook anders dan
het ontwikkelproces van AI-software (rechts: iteratief proces):

Conclusie
In het licht van deze unieke kenmerken van AI-software, is het belangrijk dat contracten voor AI-toepassingen zorgvuldig worden opgesteld om rekening te houden met deze complexe kwesties. Dit kan helpen om duidelijkheid te scheppen over de rechten en verantwoordelijkheden van de betrokken partijen en om geschillen te voorkomen. Wil je een contract met betrekking tot de ontwikkeling of aankoop van een
AI-toepassing laten opstellen of beoordelen,
neem dan contact op met mij.
Whitepaper
Wij hebben een whitepaper opgesteld met tips voor contacten met betrekking tot
de ontwikkeling /aankoop van AI toepassingen. Waar moet je aan denken bij het opstellen of beoordelen van een dergelijke overeenkomst.
Wanneer je dit whitepaper wilt ontvangen, en geïnformeerd wilt blijven over de uitvoering van AI regelgeving, vul dan onderstaand formulier in.
[1] AI Procurement Clauses template High Risk

[post_title] => Waarom een contract voor het ontwikkelen/kopen van AI toepassingen geen standaard software contract is?
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => waarom-een-contract-voor-het-ontwikkelen-kopen-van-ai-toepassingen-geen-standaard-software-contract-is
[to_ping] =>
[pinged] =>
[post_modified] => 2024-08-27 11:12:56
[post_modified_gmt] => 2024-08-27 09:12:56
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=43226
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[5] => WP_Post Object
(
[ID] => 42982
[post_author] => 6
[post_date] => 2024-07-29 12:04:16
[post_date_gmt] => 2024-07-29 10:04:16
[post_content] => De vormgeving van een gebruiksvoorwerp kan auteursrechtelijk beschermd zijn. Dus ook van bijvoorbeeld
een kaasschaaf. De drempel daarvoor blijkt in de praktijk hoog te zijn. Al snel is vormgeving bepaald door het gebruik of functionele eisen. Maar het kan wel. Aan de onderbouwing worden hogen eisen gesteld.
In een kortgeding procedure liep het niet goed af voor Boska.
[1]
Boska is producent van diverse food gereedschappen zoals kaasschaven, kaasraspen en smeermessen. Haar designafdeling heeft deze ontworpen, zoals de Copenhagenlijn. Sinds 2009 verkoopt PLUS deze in haar supermarkten:

In 2023 eindigt de samenwerking. PLUS vraagt een andere partij om een kaasschaaf, kaasrasp en smeermes te leveren. Deze partij doet dit onder de naam Klaverland.

Boska stelt dat haar
producten auteursrechtelijk zijn beschermd en dat PLUS (en de leverancier) inbreuk daarop maakt door de Klaverblad producten aan te bieden. PLUS heeft de Klaverblad producten vervolgens uit haar winkels en online gehaald. De leverancier en Boska komen niet tot een regeling. Boska stelt in een kortgedingprocedure dat de leverancier inbreuk heeft gemaakt op het auteursrecht van Boska en daarnaast onrechtmatig heeft gehandeld door slaafs na te bootsen.
De vorderingen worden afgewezen. In een goed onderbouwd vonnis, past de rechter het werkbegrip uit de Auteurswet toe, in overeenstemming met de
Auteursrecht richtlijn. In deze casus gaat het om gebruiksvoorwerpen. De toepassing van het werkbegrip is niet anders dan bij andere werken.
Auteursrechtelijke bescherming
Aan een werk worden
twee voorwaarden gesteld; het moet i) nauwkeurig en objectief identificeerbaar en ii) oorspronkelijk zijn.
Aan de eerste voorwaarde is voldaan. Het is voldoende duidelijk waar de auteursrechtelijke bescherming van wordt ingeroepen.
De tweede voorwaarde vormt een probleem. De rechter overweegt: “De rechter moet nagaan of de maker van het product door de keuze van de verschijningsvorm ervan zijn creatieve vermogen op originele wijze tot uitdrukking heeft gebracht door vrije en creatieve keuzen te maken en het product zodanig heeft vormgegeven dat het zijn persoonlijkheid weerspiegelt”. Omdat het een gebruiksvoorwerp is gelden er functionele en technische vereisten. Dat betekent vaak een beperkte ruimte om ‘vrije en creatieve’ keuzes te maken. En daar waar die keuzes bestaan mag het niet overeenstemmen met wat er al bestond (‘het vormgevingserfgoed’).
Boska heeft van de drie producten aangegeven wat de auteursrechtelijk beschermde elementen zijn (o.a. “het handvat is hol, de ‘ronde’ vormgeving van het handvat, het handvat is niet volledig rond, maar is aan de boven- en onderkant afgevlakt”). Boska vat dit samen als een eigen ‘look and feel’ van de producten.
Tijdens de mondelinge behandeling heeft Boska aangegeven dat zij zich niet beroept op de auteursrechtelijke bescherming van één of meerdere specifieke elementen van de Boska producten. Boska beroept zich op de auteursrechtelijke bescherming van de combinatie van deze (stuk voor stuk onbeschermde) elementen. De rechter vindt echter dat het niet duidelijk is welke
beschermingswaardige creativiteit Boska heeft toegepast om met de combinatie van de op zichzelf onbeschermde elementen, een auteursrechtelijk beschermd werk te creëren. Boska heeft onvoldoende onderbouwd op grond waarvan de combinatie van de onbeschermde elementen in de Boska Producten, de persoonlijke visie van de maker tot uiting brengt. Dit had wel van haar verwacht mogen worden.” Een andere uitkomst zou dus mogelijk zijn geweest wanneer Boska beter had onderbouwd waar de vrije en creatieve keuzes zijn gemaakt die afwijken van het vormgevingserfgoed.
Verder overweegt de rechter dat het hier om gebruiksvoorwerpen gaat. Deze hebben naar hun aard een bepaalde
basisvorm. En hoewel die niet per definitie uitgesloten zijn van auteursrechtelijke bescherming, is de basisvorm vaak bepaald door de gebruiksbestemming en daarmee dus functioneel bepaald. De rechtbank overweegt: “Het gaat hierbij bijvoorbeeld om de keuzes die zijn gemaakt met betrekking tot (de ronde vorm, en breedte en lengte van) het handvat, de lengte van het blad en de totale lengte van het product, in het geval van de kaasschaaf en de smeermessen (de vorm van) het blad, en in het geval van de kaasrasp de (hoeveelheid) gaatjes waarmee geraspt kan worden.”
Deze elementen en de combinatie daarvan zijn ingegeven door bruikbaarheid en/of ergonomische overwegingen en ruim in het vormgevingserfgoed aanwezig. Van enige creatieve keuzes om dergelijke elementen in de Boska Producten op te nemen is geen sprake. Ook hier had de beoordeling anders kunnen uitpakken wanneer op dit onderdeel een betere onderbouwing was gegeven. Het kan natuurlijk ook dat er geen andere onderbouwing te geven was.
Kortom, geen auteursrechtelijke bescherming voor de Boska producten.
Slaafse nabootsing
Voor
slaafse nabootsing is vereist dat het ene product een “eigen plaats in de markt” heeft. De leverancier betwist dit ten aanzien van de Boska producten. De leverancier stelt dat Boska merk wellicht wordt herkend door consumenten, maar dat dit niet geldt voor de vormgeving van de Boska producten.
De rechter overweegt dat Boska onvoldoende aannemelijk heeft gemaakt dat de Boska producten voldoende onderscheidend waren en nog steeds zijn toen de Klaverland Producten op de markt kwamen. Uit het vormgevingserfgoed blijkt dat er een aantal kaasschaven, kaasraspen en smeermessen van verschillende producenten op de markt zijn die nauwelijks afwijken van de Boska producten.
Kortom, er is geen sprake van een eigen gezicht op de markt. En dus geen slaafse nabootsing.
Wat betekent dit voor de praktijk:
- Vormgeving van gebruiksvoorwerpen kan auteursrechtelijk beschermd zijn maar de drempel lijkt hoog te zijn;
- Wanneer je auteursrechtelijke bescherming wilt onderbouwen, dan moet je tijdens het design proces zorgen voor een goede dossiervorming (wat is het vormgevingserfgoed, waar wijkt het nieuwe ontwerp af, wat zijn de vrije en creatieve keuzes die daarbij zijn gemaakt.
- Voor concurrenten kan dit ook kansen betekenen. Gebruiksvoorwerpen die niet aan de werktoets voldoen en die geen eigen plaats in de markt hebben, zijn vrij te kopiëren.
Voor meer informatie: neem contact op met mij.
Zie ook mijn eerder
blog hierover.
[1] ECLI:NL:RBMNE:2024:4318, Rechtbank Midden-Nederland, C/16/576257 / KG ZA 24-279 (rechtspraak.nl)

[post_title] => BOSKA kaasschaaf niet auteursrechtelijk beschermd
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => boska-kaasschaaf-niet-auteursrechtelijk-beschermd
[to_ping] =>
[pinged] =>
[post_modified] => 2024-07-29 12:04:16
[post_modified_gmt] => 2024-07-29 10:04:16
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=42982
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[6] => WP_Post Object
(
[ID] => 42515
[post_author] => 6
[post_date] => 2024-06-14 12:02:10
[post_date_gmt] => 2024-06-14 10:02:10
[post_content] => Met de
definitieve versie van de AI Act kan de volgende cruciale stap worden genomen, namelijk het toezicht op de naleving ervan. Voor iedereen die AI ontwikkelt, op de markt brengt of gebruikt is het relevant om te weten wie in Nederland toezicht houdt op
AI-toepassingen. Begin 2025 treden de eerste onderdelen van de AI Act in werking. Dit betekent dat er vanaf dat moment daadwerkelijk toezicht zal worden gehouden op de naleving van de bepalingen/verplichtingen uit de AI Act. In Nederland zal dit voornamelijk door de Autoriteit Persoonsgegevens (AP) worden gedaan, die ook verantwoordelijk is voor toezicht op en handhaving van de AVG. De AP zal hierbij samenwerken met andere instanties, waaronder de Rijksinspectie Digitale Infrastructuur (RDI).
In hun recente, gezamenlijke advies aan het kabinet wordt de noodzaak van samenwerking tussen toezichthouders benadrukt. Ze vragen bovendien om voldoende budget en personeel zodat voorlichting en handhaving rondom AI-toepassingen effectief kan worden uitgevoerd. Door de samenwerking tussen de verschillende toezichthouders zullen AI-gebruikers beter geïnformeerd worden over de wettelijke vereisten die gaan gelden. Dit zorgt ervoor dat bedrijven de juiste stappen kunnen nemen om compliant te worden en blijven.
Hoe gaat het toezicht op AI eruitzien in Nederland?
De AP en de RDI adviseren het kabinet om het toezicht op AI-toepassingen zoveel mogelijk te laten aansluiten bij het bestaande toezicht in verschillende sectoren. Voor AI-producten met een hoog risico die al een
CE-markering nodig hebben, kan het huidige toezicht volgens hen gehandhaafd blijven. Dit betekent bijvoorbeeld dat de Nederlandse Voedsel- en Warenautoriteit (NVWA) speelgoed zal blijven keuren, ook als er AI in verwerkt zit, en dat de Inspectie Gezondheidszorg en Jeugd (IGJ) zal toezien op AI in medische apparaten.
Voor AI-toepassingen met een hoog risico waarvoor momenteel nog geen CE-markering verplicht is, zal het toezicht grotendeels bij de AP komen te liggen. Ongeacht de sector waarin deze systemen worden ingezet, fungeert de AP dan als algemene markttoezichthouder. Deze rol omvat het toezien op onder andere het trainen van AI, transparantie en menselijke controle.
Er zijn echter uitzonderingen op deze algemene toezichtstructuur. Voor de financiële sector zullen de Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) het markttoezicht uitvoeren. Voor kritieke infrastructuur zullen de Inspectie Leefomgeving en Transport (ILT) en de RDI verantwoordelijk zijn. Verder zal het markttoezicht op AI-toepassingen die worden gebruikt in de rechtspraak zo moeten worden vormgegeven dat de onafhankelijkheid van rechterlijke autoriteiten gewaarborgd blijft.
Hieronder zijn twee overzichten uit het advies weergegeven, met de toezichthouders voor
hoog-risico en verboden AI-toepassingen.
Overzicht uit het advies van de toezichthouders per categorie van de AI-toepassingen die hoog-risico zijn onder de AI Act.
Overzicht uit het advies van de toezichthouders per categorie van de AI-toepassingen die verboden zijn onder de AI Act.
Wat betekent dit voor bedrijven die AI inzetten?
Van alle landen uit de
Europese Unie loopt Nederland momenteel voorop met het gereed maken van het nationale toezicht op AI. Dit onderstreept het belang van de naleving van de AI Act als gebruiker, importeur of producent van een AI-toepassing. Zorg er daarom voor dat het gebruik van AI binnen jouw bedrijf op orde is met een van
onze drie assessmentmethodes:
AI Category Assessment: Ontdek in welke risicocategorie jouw AI-systeem valt en welke regels voor jou van toepassing zijn met een op maat gemaakt advies.
AI High Risk Compliance Quickscan: Een praktische tool om snel te controleren of jouw AI-systeem voldoet aan de hoog-risico vereisten van de AI Act.
AI High Risk Conformity Assessment: Een grondige evaluatie waarbij we samen met jou zorgen dat je AI-systeem aan alle wettelijke eisen voldoet.
De komende maanden zal duidelijk worden hoe het kabinet het AI-toezicht in Nederland concreet vormgeeft. Bedrijven die AI inzetten zullen zich in de tussentijd moeten voorbereiden op de eisen uit de AI Act en zorgen dat hun systemen compliant zijn. Neem contact met ons op en ontdek hoe wij je kunnen helpen om aan de nieuwe regelgeving te voldoen en een veilige, verantwoorde inzet van AI-toepassingen te waarborgen.

[post_title] => AI toezicht in Nederland
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => ai-toezicht-in-nederland
[to_ping] =>
[pinged] =>
[post_modified] => 2024-06-14 12:13:49
[post_modified_gmt] => 2024-06-14 10:13:49
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=42515
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[7] => WP_Post Object
(
[ID] => 42219
[post_author] => 6
[post_date] => 2024-05-29 11:13:04
[post_date_gmt] => 2024-05-29 09:13:04
[post_content] => Wat zijn de mogelijkheden van een
merkhouder om op te treden tegen de verkoop van (bewerkte) merkproducten? In hoeverre mogen merkproducten worden aangepast voor verdere verkoop?Deze vragen kwamen aan de orde in een procedure waar
NU.nl over berichtte met de kop “Nederlander mag geen zelfgebouwde LEGO-treinen meer verkopen”
[1]. Ook volwassenen bouwen LEGO speelgoed. Die volwassenen, die zich Adult Fan of LEGO (“AFOL”) noemen, ontwerpen en bouwen constructies met LEGO-bouwstenen. Sommige handelen daar zelfs (professioneel) in. Dan gaat om het constructies zoals:
[gallery size="full" link="file" ids="42226,42228"]
Deze
LEGO-bouwstenen worden dan rechtmatig ingekocht. Soms worden deze bewerkt. Bijvoorbeeld doordat er een logo van een derde partij op wordt afgebeeld. Zoals hierboven het NS logo op de trein. Soms worden LEGO-bouwstenen daarbij bewerkt, zoals onderstaand voorbeeld waarbij een metalen kogellager is aangebracht.
[gallery size="full" link="file" ids="42230,42232"]
Uitputting?
Centraal stond in deze procedure de vraag of het recht van LEGO om zich te verzetten tegen deze verkoop was “
uitgeput”. LEGO verzette zich daartegen met als argument dat de toestand van de LEGO-bouwstenen was aangetast en zonder toestemming van LEGO. En dat zou komen doordat er (een metalen) kogellager in de LEGO-bouwstenen was aangebracht. En daar had LEGO geen toestemming voor verleend. En dat leidde ook tot post-sales klachten.
LEGO beriep zich daarbij op haar
merkrechten. LEGO heeft het woord LEGO als merk geregistreerd. Dit LEGO-woordmerk is op alle bouwstenen aangebracht. Het LEGO blokje zelf is
niet als merk geregistreerd omdat de vorm technisch is bepaald. LEGO heeft wel de vorm van de minifiguurtjes als (vorm)merk geregistreerd:
Oordeel rechter
In dit
kort geding[2] moest de voorzieningenrechter oordelen of inbreuk werd gemaakt op de merkrechten van LEGO. De voorzieningenrechter oordeelde dat sprake was van inbreuk op de merkrechten. Daarbij speelde een rol dat:
- de voorzieningenrechter van belang vond dat de kwaliteit van het plastic van de LEGO-bouwstenen waaraan een (metalen) kogellager is toegevoegd was aangetast en daardoor niet (meer) voldeed aan de (hoge) kwaliteitseisen die daaraan, ook vanuit de voor (kinder)speelgoed geldende eisen voor productveiligheid, worden gesteld;
- tijdens de zitting de voorzieningenrechter zelf heeft kunnen waarnemen dat “de LEGO-bouwstenen waaraan een metalen kogellager is toegevoegd, zogenaamde stress whitening vertonen”.
- er onder meer lood was gedetecteerd in de aangebrachte metalen kogellager, hetgeen LEGO problematisch acht.
- het bedrukken van LEGO-bouwstenen ook kan leiden tot aantasting van de herkomstfunctie van de LEGO-merken;
Dit alles betekende dat degene die deze
LEGO producten aanbood:
- het aanbieden van deze producten moest staken;
- opgave moest doen van de professionele partijen aan wie hij deze producten had verkocht
- een rectificatie moest sturen naar zijn klanten
- een product recall moest uitvoeren onder zijn professionele afnemers (niet zijnde consumenten)
- een dwangsom verschuldigd werd wanneer hij nogmaals inbreuk zou maken
- een kostenvergoeding moest betalen (ruim € 16.000,=).
LEGO had ook gevorderd dat er een opgave gedaan moest worden van de gemaakte winst. Die vordering wordt afgewezen omdat daar, in het kader van dit kort geding, geen spoedeisend belang voor bestond.
Wat betekent dit voor merkhouders
In Nederland kunnen merkhouders zich verzetten tegen de verdere verhandeling van hun
merkproducten wanneer iets aan de toestand van het product is aangepast.
Dat kan zijn:
- dat er iets aan het product is toegevoegd of aangebracht, zoals in dit geval een (metalen) kogellager.
- Of dat er een logo van een derde partij op het product is aangebracht, zoals in dit geval het logo van NS op het treinstel.
Ben je merkhouder en wil je optreden tegen de verdere verhandeling van je (gewijzigd) merkproduct, neem dan contact op met mij om je mogelijkheden tot
handhaving van je merkrecht (of ander
Intellectueel Eigendomsrecht) te bespreken.
Word je hierop aangesproken door een merkhouder, ook dan kunnen wij je adviseren over je juridische positie en mogelijkheden. Neem contact op met mij (
wijst@bg.legal).
[1] NU.nl 28 mei 2024 https://www.nu.nl/economie/6314601/nederlander-mag-geen-zelfgebouwde-lego-treinen-meer-verkopen.html
[2] Rechtbank Den Haag, 28 mei 2024, ECLI:NL:RBDHA:2024:7992

[post_title] => LEGO kan optreden tegen verhandeling van LEGO-bouwstenen en minifiguren
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => lego-kan-optreden-tegen-verhandeling-van-lego-bouwstenen-en-minifiguren
[to_ping] =>
[pinged] =>
[post_modified] => 2024-05-29 14:26:36
[post_modified_gmt] => 2024-05-29 12:26:36
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=42219
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[8] => WP_Post Object
(
[ID] => 42183
[post_author] => 6
[post_date] => 2024-05-24 13:46:51
[post_date_gmt] => 2024-05-24 11:46:51
[post_content] => Na een voorstel voor een tekst van de
AI Act, wijzigingsvoorstellen van de EU lidstaten en het Europees Parlement en een akkoord op een compromistekst, is de tekst nog een keer nagelopen. Dat heeft geleid tot een tekst die op onderdelen nog is aangepast. Die tekst is nu
goedgekeurd.
Wat moet er nu nog gebeuren?
Deze finale tekst moet nog worden gepubliceerd in het Publicatieblad van de Europese Unie.
Tijdslijn
De dag van publicatie is het moment waarop de
termijnen gaan lopen:
- na 20 dagen: de AI Act treedt in werking;
- na 6 maanden: de verboden AI toepassingen mogen niet (meer) op de EU markt beschikbaar zijn;
- na 9 maanden: de Europese Commissie publiceert Codes of Practices voor General Purpose AI models;
- na 12 maanden: verplichtingen voor General Purpose AI Models gelden, Europese Commissie komt met richtlijnen voor het melden van incidenten met hoog risico AI systemen;
- na 18 maanden: de Europese Commissie komt met praktische richtlijnen voor het classificeren van AI systemen;
- na 24 maanden: de Annex III hoog-risico AI systemen moeten aan hun verplichtingen voldoen, de transparantieverplichtingen gelden, de codes of conduct verplichtingen gelden.
- na 36 maanden: de Annex II hoog-risico AI systemen moeten aan hun verplichtingen voldoen.
Wat te doen?
Nu de
tekst van de AI Act definitief is, zal iedereen zich moeten gaan voorbereiden. Natuurlijk is dit het meest urgent voor ontwikkelaars van AI systemen. Maar ook andere partijen moeten zich hierin gaan verdiepen; degene die een AI systeem integreren in hun hardware/software, degene die AI systemen gaan distribueren en degene die AI systemen gaan gebruiken.
AI ontwikkelaars
Zij zullen zich af moeten vragen:
- valt het door mij ontwikkelde
AI systeem onder de definitie van AI (of hoe voorkom ik dat)
- wanneer het er onder valt: in welke risico-categorie valt mijn AI systeem
- voldoe ik aan de vereisten voor die klasse of wat moet ik doen om hieraan te voldoen.
AI gebruikers
Dit zal bijna iedereen zijn. Iedereen zal moeten onderzoeken of zijn/haar organisatie (geïntegreerde) AI systemen gebruikt. En dan zal de leverancier moeten aangeven wat de
risico-categorie is en of aan de vereisten van die risico-categorie is voldaan.
Voor wie gaat dit werk opleveren
De verwachting is dat voor veruit de meeste AI systemen geen of beperkte gevolgen voortvloeien uit de AI Act. Of er gevolgen zijn blijkt na inventarisatie (
AI mapping). Wanneer er wel verboden of hoog-risico AI systemen worden ontwikkeld of gebruikt, dan is er werk aan de winkel. En dan kan 6/24 maanden sneller voorbij zijn dan je denkt.
Hulp?
Mail (
wijst@bg.legal) wanneer je hulp wilt bij:
- onderzoek of naar de classificatie van een AI systeem
- onderzoek of een AI systeem compliant is met
wet- en regelgeving
- de vragen die je moet stellen aan (potentiële) leveranciers van software

[post_title] => Tekst AI Act definitief
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => tekst-ai-act-definitief
[to_ping] =>
[pinged] =>
[post_modified] => 2024-05-24 14:05:37
[post_modified_gmt] => 2024-05-24 12:05:37
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=42183
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[9] => WP_Post Object
(
[ID] => 41358
[post_author] => 6
[post_date] => 2024-02-29 16:03:12
[post_date_gmt] => 2024-02-29 15:03:12
[post_content] => De verplichtingen van de
AI Act zijn in beginsel niet van toepassing op
AI-modellen die onder vrije en open source licenties worden vrijgegeven. Maar wat is Open Source-AI precies en welke uitzonderingen gelden? In deze blog nemen we je mee.
Definitie
Één duidelijke, vaste definitie van
‘open-source’ wordt niet gegeven in de AI Act, maar in de tekst van de Verordening kunnen we wel een aantal aanknopingspunten vinden:
- AI-modellen voor algemene doeleinden, die onder een vrije en open source licentie worden vrijgegeven, worden geacht hoge niveaus van transparantie en openheid te garanderen door hun parameters, met inbegrip van de gewichten, de informatie over de modelarchitectuur en de informatie over het gebruik van het model openbaar te maken.
- Een licentie wordt geacht vrij en open source te zijn wanneer de gebruikers de software en gegevens, inclusief modellen, kunnen runnen, kopiëren, verspreiden, bestuderen, wijzigen en verbeteren op voorwaarde dat de oorspronkelijke leverancier van het model vermeld wordt en de identieke of vergelijkbare distributievoorwaarden worden gerespecteerd.
Uitzonderingen
De verplichtingen van de AI Act zijn zoals gezegd
in beginsel niet van toepassing op
AI-modellen die onder vrije en open source licenties worden vrijgegeven (oftewel: ‘Open Source AI-modellen). Dit is anders wanneer het Open Source AI-systeem op de markt wordt gebracht of in gebruik wordt genomen als AI-systeem met een hoog risico of als het een AI-systeem is dat onder de titels II en IV valt. Hierbij gaat het om verboden AI-toepassingen, GPAI-modellen en ‘bepaalde AI-systemen’ (zoals AI-systemen die beeld-, audio- of video-inhoud genereren of manipuleren om een deep fake te creëren, emotieherkenningssystemen en biometrische categorisatiesystemen).
Om het wat ingewikkelder te maken, geldt op de uitzondering van
GPAI-modellen (waardoor de AI Act toch wél van toepassing is op Open Source AI-modellen), weer een uitzondering die blijkt uit overweging 60f van de AI Act:
AI-modellen voor algemene doeleinden die onder een vrije en open source licentie worden vrijgegeven (hierna: ‘Open Source GPAI’) en waarvan de ‘
parameters, including the weights, the information on the model architecture, and the information on model usage’ openbaar worden gemaakt, zijn uitgezonderd van de
transparantievereisten die aan GPAI’s worden gesteld (in art. 52 van de AI Act). Dus: de verplichtingen uit de AI Act gelden wel voor de Open Source GPAI’s, maar de transparantieverplichtingen niet.
Maar, wanneer deze Open Source GPAI’s een
systeemrisico inhouden, gaat die vlieger niet meer op. Het feit dat het model transparant is en onder een open source licentie wordt vrijgegeven is dan niet voldoende reden om de naleving van de verplichtingen van de AI Act uit te sluiten.
Een systeemrisico
Een systeemrisico is een risico specifiek voor GPAI’s met grote gevolgen voor de interne markt vanwege de reikwijdte ervan, en met daadwerkelijke of redelijkerwijs te verwachten negatieve gevolgen voor de volksgezondheid, de openbare veiligheid, de openbare veiligheid, de grondrechten of de samenleving als geheel, die zich op grote schaal in de waardeketen kunnen verspreiden.
Het kan dus zo zijn dat een Open Source GPAI een systeemrisico inhoudt, waardoor de transparantieverplichtingen voor GPAI’s uit art. 52 alsnog gelden.
Bovendien, onthullen Open Source GPAI’s niet noodzakelijkerwijs substantiële informatie over de dataset die is gebruikt voor het trainen of afstemmen van het model. Hetzelfde geldt voor de informatie over de wijze waarop daarbij de naleving van het auteursrecht is gewaarborgd. De transparantie uitzondering voor Open Source GPAI’s,
geldt daarom dus niet ten aanzien van de verplichting om een samenvatting te maken van de inhoud die is gebruikt voor de modeltraining en de verplichting om een beleid in te voeren om het auteursrecht van de Unie te respecteren.
Dit betekent dat dus in ieder geval, ook als er geen sprake is van een systeemrisico, zal een
Open Source GPAI dus een samenvatting moeten maken van de inhoud die is gebruikt voor de modeltraining en een beleid moeten voeren om het auteursrecht te respecteren.
Samengebracht in een schematisch overzicht ziet het er zo uit:

Verder worden de ontwikkelaars van Open Source instrumenten, diensten, processen of AI-componenten
anders dan GPAI worden aangemoedigd om algemeen aanvaarde documentatiepraktijken toe te passen
, zoals modelkaarten en gegevensbladen, als een manier om het delen van informatie langs de AI-waardeketen te versnellen, waardoor de bevordering van betrouwbare AI-systemen mogelijk wordt.
Waarom worden Open Source AI-modellen uitgezonderd?
Software en gegevens, met inbegrip van modellen, die worden vrijgegeven onder
een open source-licentie waardoor ze openlijk kunnen worden gedeeld en gebruikers ze of gewijzigde versies ervan vrij kunnen openen, gebruiken, wijzigen en verspreiden, kunnen bijdragen aan onderzoek en innovatie op de markt en kunnen aanzienlijke groeikansen bieden voor de economie van de Unie. Dit is een afweging die de Europese wetgever heeft gemaakt, om een
chilling effect op open-source ontwikkeling te voorkomen.
Een open einde
Hoewel Open Source AI-modellen in beginsel zijn vrijgesteld van de verplichtingen van de AI Act, zijn er ook belangrijke uitzonderingen. Vooral wanneer deze systemen worden beschouwd als hoog-risico of vallen onder specifieke categorieën die strengere
transparantie- en compliance-eisen stellen. De vrijstelling van Open Source AI-modellen onderstreept het belang dat de Europese wetgever hecht aan het bevorderen van transparantie, innovatie en groei binnen de AI-sector.
Voor ontwikkelaars en gebruikers van Open Source AI-modellen is het van belang dat zij zich bewust zijn van de relevante wettelijke kaders en de waarde van
best practices in documentatie en naleving, zelfs in de open-source context. Heb je vragen over de impact van de AI Act op Open Source AI-systemen, de specifieke uitzonderingen of hoe je kunt vaststellen of jouw AI-systeem hoog-risico is? Neem dan contact op met
Jos van der Wijst.

[post_title] => Is Open Source-AI vrijgesteld van transparantie eisen?
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => is-open-source-ai-vrijgesteld-van-transparantie-eisen
[to_ping] =>
[pinged] =>
[post_modified] => 2024-03-01 10:54:26
[post_modified_gmt] => 2024-03-01 09:54:26
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=41358
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
)
[post_count] => 10
[current_post] => -1
[before_loop] => 1
[in_the_loop] =>
[post] => WP_Post Object
(
[ID] => 44695
[post_author] => 6
[post_date] => 2025-02-27 09:40:15
[post_date_gmt] => 2025-02-27 08:40:15
[post_content] => De Europese Unie introduceert nieuwe digitaliseringsregels die de manier waarop organisaties data verzamelen, delen en gebruiken ingrijpend veranderen. De
EU Data Act richt zich op eerlijke toegang tot data, het bevorderen van innovatie en het waarborgen van privacy en beveiliging. Dit heeft grote implicaties voor bedrijven die data gebruiken of softwaretools ontwikkelen voor dataverwerking. Zie onderstaande afbeelding:
Wat verandert er?
De EU Data Act introduceert:
Data-deling verplichtingen: Organisaties moeten data transparant delen, vooral als deze afkomstig is van verbonden apparaten (apparaten verbonden met het internet).
Beveiligings- en privacy-eisen: Strengere regels voor data-opslag en verwerking, vooral bij het werken met cloud providers buiten de EU.
Concurrentiebevordering: Voorkomen van data-monopolies en bevorderen van eerlijke toegang tot data.
Wat betekent dit voor uw organisatie?
Voor datagebruikers: U moet nagaan of uw dataverwerkingsprocessen voldoen aan de nieuwe eisen. Het delen van data wordt verplicht, wat kan leiden tot nieuwe zakelijke kansen, maar ook tot grotere nalevingsverplichtingen.
Voor softwareontwikkelaars: Uw tools moeten voldoen aan nieuwe interoperabiliteits- en beveiligingsnormen. Dit vraagt om updates en mogelijk herontwerp van bestaande software.
Wat is nieuw?
De Europese Commissie heeft haar FAQ vernieuwd. Op een aantal onderdelen is nieuwe verduidelijking toegevoegd. We wachten nog steeds op
de modelovereenkomsten die gedeeld zouden worden.
Wat te doen?
Wilt u weten hoe deze regelgeving uw organisatie beïnvloedt en welke stappen nodig zijn om
compliant te blijven? Of wilt u weten hoe u toegang kunt krijgen tot deze
data om daar een commercieel product / dienst van te maken?
Neem contact op met
Jos van der Wijst voor een persoonlijk adviesgesprek. We helpen u graag om kansen te benutten en risico’s te beheersen.

[post_title] => Impact van EU digitaliseringsregelgeving op data gedreven organisaties
[post_excerpt] =>
[post_status] => publish
[comment_status] => open
[ping_status] => open
[post_password] =>
[post_name] => impact-van-eu-digitaliseringsregelgeving-op-data-gedreven-organisaties
[to_ping] =>
[pinged] =>
[post_modified] => 2025-02-27 09:41:57
[post_modified_gmt] => 2025-02-27 08:41:57
[post_content_filtered] =>
[post_parent] => 0
[guid] => https://bg.legal/?p=44695
[menu_order] => 0
[post_type] => post
[post_mime_type] =>
[comment_count] => 0
[filter] => raw
)
[comment_count] => 0
[current_comment] => -1
[found_posts] => 264
[max_num_pages] => 27
[max_num_comment_pages] => 0
[is_single] =>
[is_preview] =>
[is_page] =>
[is_archive] => 1
[is_date] =>
[is_year] =>
[is_month] =>
[is_day] =>
[is_time] =>
[is_author] =>
[is_category] =>
[is_tag] =>
[is_tax] => 1
[is_search] =>
[is_feed] =>
[is_comment_feed] =>
[is_trackback] =>
[is_home] =>
[is_privacy_policy] =>
[is_404] =>
[is_embed] =>
[is_paged] =>
[is_admin] =>
[is_attachment] =>
[is_singular] =>
[is_robots] =>
[is_favicon] =>
[is_posts_page] =>
[is_post_type_archive] =>
[query_vars_hash:WP_Query:private] => 142cd08274a5c5faff512379bc31bff8
[query_vars_changed:WP_Query:private] => 1
[thumbnails_cached] =>
[allow_query_attachment_by_filename:protected] =>
[stopwords:WP_Query:private] =>
[compat_fields:WP_Query:private] => Array
(
[0] => query_vars_hash
[1] => query_vars_changed
)
[compat_methods:WP_Query:private] => Array
(
[0] => init_query_flags
[1] => parse_tax_query
)
[tribe_is_event] =>
[tribe_is_multi_posttype] =>
[tribe_is_event_category] =>
[tribe_is_event_venue] =>
[tribe_is_event_organizer] =>
[tribe_is_event_query] =>
[tribe_is_past] =>
[tribe_controller] => Tribe\Events\Views\V2\Query\Event_Query_Controller Object
(
[filtering_query:Tribe\Events\Views\V2\Query\Event_Query_Controller:private] => WP_Query Object
*RECURSION*
)
)
De Europese Unie introduceert nieuwe digitaliseringsregels die de manier waarop organisaties data verzamelen, delen en gebruiken ingrijpend veranderen. De EU Data Act richt zich op eerlijke toegang tot data, het...
Lees meer
De Europese Commissie heeft recent richtlijnen gepubliceerd over de definitie van AI-systemen en verboden AI-praktijken in het kader van de AI Act. Deze richtlijnen helpen te bepalen of een softwaretoepassing...
Lees meer
Een gemeente gaat, na een aanbesteding, een dienst afnemen waarbij AI wordt gebruikt door de leverancier. De gemeente wil zeker weten dat deze dienst wet- en regelgeving nakomt. Met name...
Lees meer
De Europese Unie wil met haar digitale strategie ervoor zorgen dat zowel mensen als bedrijven optimaal profiteren van de digitale technologie die ons leven ingrijpend verandert. Deze strategie omvat meer...
Lees meer
Contracten voor AI-toepassingen zijn geen standaard softwarecontracten vanwege de unieke technische kenmerken van AI-software. AI-software is afhankelijk van data en het is moeilijk om van tevoren te voorspellen wat het...
Lees meer
De vormgeving van een gebruiksvoorwerp kan auteursrechtelijk beschermd zijn. Dus ook van bijvoorbeeld een kaasschaaf. De drempel daarvoor blijkt in de praktijk hoog te zijn. Al snel is vormgeving bepaald...
Lees meer
Met de definitieve versie van de AI Act kan de volgende cruciale stap worden genomen, namelijk het toezicht op de naleving ervan. Voor iedereen die AI ontwikkelt, op de markt...
Lees meer
Wat zijn de mogelijkheden van een merkhouder om op te treden tegen de verkoop van (bewerkte) merkproducten? In hoeverre mogen merkproducten worden aangepast voor verdere verkoop?Deze vragen kwamen aan de...
Lees meer
Na een voorstel voor een tekst van de AI Act, wijzigingsvoorstellen van de EU lidstaten en het Europees Parlement en een akkoord op een compromistekst, is de tekst nog een...
Lees meer
De verplichtingen van de AI Act zijn in beginsel niet van toepassing op AI-modellen die onder vrije en open source licenties worden vrijgegeven. Maar wat is Open Source-AI precies en...
Lees meer