14 min Leestijd

AI in de creatieve sector

Er zijn eindeloos veel mogelijkheden met AI. Denk aan DALL-E waarmee afbeeldingen gegeneerd kunnen worden, Sora waarmee video’s gemaakt kunnen worden, met Suno kun je complete liedjes componeren en natuurlijk het welbekende ChatGPT. Te gek al die mogelijkheden, maar wat zijn de risico’s en valkuilen voor content creators en de openbaarmakers ervan bij het gebruik van AI? Om hen te behoeden voor een aantal van die juridische risico’s en valkuilen, geef ik praktische juridische tips met betrekking tot AI.

In dit artikel refereer ik een aantal keer aan auteursrechtelijke begrippen. Daarom in het heel kort een recap wanneer een werk auteursrechtelijk beschermd is. Een werk kan auteursrechtelijk beschermd zijn als het creatief (eigen oorspronkelijk karakter) en origineel (persoonlijk stempel van de maker) is. Als een werk auteursrechtelijk beschermd is, mag het in principe alleen met toestemming van de maker gepubliceerd en gekopieerd worden. De Auteurswet kent een aantal uitzonderingen wanneer een werk wél zonder toestemming van de maker openbaar gemaakt mag worden of verveelvoudigd. In dit stuk zoom ik in op de uitzondering die specifiek in het kader van AI voor content creators en de openbaarmakers ervan relevant is.

De Auteurswet houdt namelijk al rekening met AI! De Auteurswet geeft sinds 2021 aan makers van AI-systemen de mogelijkheid om gebruik te maken van tekst- en datamining. Dit is opgenomen in artikel 15n Auteurswet en houdt in dat in principe alles wat openbaar (rechtmatig) te vinden is, mag worden ‘gebruikt’ door een AI-systeem om zich te trainen.

De uitzondering is echter niet onbegrensd. Je kan er daarom voor zorgen dat jouw werk uit de klauwen van AI blijft.

Tip 1: je moet voorwaarden stellen en/of voeg een opt-out toe

Wanneer je wil voorkomen dat AI-systemen jouw content gebruiken geef ze dan geen rechtmatige toegang tot die content. Dit kan door bijvoorbeeld een inlogsysteem met voorwaarden te hanteren, waarbij pas na het inloggen bepaald materiaal zichtbaar is of waarbij je gebruik maakt van een betaalmuur. Als dan iets of iemand de website opgaat zonder aan die voorwaarden te voldoen, is die toegang niet rechtmatig.

Een andere tip om ervoor te voor zorgen dat jouw content, desgewenst, uit de klauwen van commerciële AI blijft is: voeg een opt-out toe, ook wel het maken van een uitdrukkelijk voorbehoud genoemd.

Let op! Wanneer het gaat om gebruik door non-profit wetenschappelijk onderzoeksorganisaties en cultureel erfgoedinstellingen kun je geen opt-out toevoegen. Dit betekent dat je dus niet kunt voorkomen dat AI jouw content ‘gebruikt’.

Er zijn verschillende mogelijkheden om te opt-outen.

Voorbeelden van een simpele opt-out zijn: All rights reserved”, “no datamining” of “auteursrecht voorbehouden”. Dat voorbehoud moet online wel machinaal leesbaar zijn. Wat precies machine-leesbaar is, is ook afhankelijk van hoe slim die lezende machine is. Hoe dit precies gedaan moet worden is nog onduidelijk. Hopelijk komt er binnenkort meer coördinatie vanuit Europa.

Om de kans te vergroten dat het systeem de opt-out kan lezen, zou je ook een “next-level” opt-out kunnen toevoegen. Hierbij een aantal tips hoe je dit kan implementeren in je website. Allereerst zou je termen als “noAi” in de metadata van je website kunnen opnemen.

Daarnaast kan je een robots.txt bestand instellen. Dit is een klein tekstbestandje dat richtlijnen/instructies bevat voor zogeheten zoekmachine ‘crawlers’, ook wel bots genoemd. Die bots struinen websites af en slaan dit op in een database. Een robots.txt-bestand vertelt zoekmachines welke van de websitepagina’s opgenomen of overgeslagen moeten worden in hun zoekresultaten. Hiermee kun je dus proberen te voorkomen dat content op de website gebruikt wordt door AI-systemen voor trainingsdoeleinden.

Wees je ervan bewust dat ondanks dat de zoekmachines zich juridisch aan die de robots.txt bestanden moeten houden, ze dit wel kunnen negeren. Goed om te weten is dat het bedrijf OpenAI van ChatGTP en DALL-E al kenbaar heeft gemaakt een opt-out in de robots.txt-bestanden te zullen respecteren.

In Nederland maken Mediahuis en DPGMedia bijvoorbeeld gebruik van zo’n robots.txt opt-out-bestand en internationaal CNN en New York Times.

Een andere opt-out optie is het implementeren van specifieke protocollen en tags in de html van je website. Deze tags maken het voor AI-systemen duidelijk dat informatie niet mag worden overgenomen.

Tip 2: verzamel bewijs van het gebruik van jouw content door een AI-tool

Mocht je het vermoeden hebben dat ondanks het opvolgen van tip 1, jouw content gebruikt wordt door een AI-tool en je wil daar iets tegen doen verzamel dan bewijs.

Een AI-systeem is nogal een blackbox waarbij de input en de activiteiten van dat systeem niet zichtbaar zijn. Veel AI-tools zijn allesbehalve transparant bij het kenbaar maken van de trainingsdata. Dat maakt het lastig om te achterhalen of jouw content zich in die blackbox bevindt en zo ja, hoe die content gebruikt wordt.

Mogelijk komt hier met de komst van de AI Act meer zicht op.

Gelukkig zijn er inmiddels een aantal websites die nagaan of jouw content in een AI-databases staat en getraind wordt door AI. Een voorbeeld daarvan is de website https://haveibeentrained.com/.  Helaas dekt deze website nog niet alle databases van alle AI-systemen. Wanneer jouw content niet op die websites te vinden is, sluit dit dus niet uit dat geen enkel AI-systeem jouw content heeft gebruikt.

De New York Times kwam er ook achter dat ChatGTP haar data trainde met haar content en was daar niet blij mee. De krant is daarom eind december 2023 een procedure tegen OpenAI gestart, het bedrijf achter ChatGTP, en Microsoft. De New York Times stelt dat de techbedrijven hun auteursrechten schenden door zonder toestemming hun artikelen te gebruiken om chatbots als ChatGTP te trainen.

In de VS starten steeds meer auteursrechthebbende procedures tegen bedrijven als OpenAI voor het trainen van data met hun auteursrechtelijk beschermde content. In Nederland zijn hierover tot op heden nog geen rechtszaken gevoerd. De Journalistenvakbond NVJ verwacht echter dat de eerste Nederlandse zaak niet lang op zich zal laten wachten.

Prompt

Een vraag die ik geregeld voorbij hoor komen is of een prompt (een instructie die aan een AI-model gegeven wordt om een bepaalde output te genereren) auteursrechtelijk beschermd kan zijn. Deze vraag is niet eenduidig te beantwoorden. Een prompt zou gezien kunnen worden als een “idee” en ideeën zijn niet auteursrechtelijk beschermd. Maar als een idee (een prompt) voldoende concreet is uitgewerkt, voldoende menselijke creatieve keuzes bevat en niet te “banaal en triviaal” is, dan zou een prompt wel beschermd kunnen zijn door het auteursrecht. De prompt “een konijn met een hoge hoed” is bijvoorbeeld te banaal en triviaal en dus niet auteursrechtelijk beschermd. Maar stel je maakt een stripboek met behulp van AI, hiervoor ben je maandenlang aan het werk om creatieve en lange prompts te bedenken, dan zouden deze prompts mogelijkerwijs auteursrechtelijk beschermd kunnen zijn. Dit betekent dat een ander deze prompts niet mag openbaarmaken of verveelvoudigen als prompt of anderszins.

Output

Waar tips 1 en 2 gingen over de input van AI-systemen zien de volgende tips op de output van een AI-systeem. Nog een vraag die ik geregeld voorbij hoor komen is of de output van een AI-systeem auteursrechtelijk beschermd kan zijn. Ook op de output van een AI-systeem is de Auteurswet van toepassing. Dit betekent dat de output auteursrechtelijk beschermd is wanneer die voldoende creatief en origineel is. Een vereiste aan die creatieve keuzes is dat die door een menselijke geest moeten zijn gemaakt.

Stel je voert in een generatieve AI-systeem de volgende prompt in: “een konijn met een hoge hoed”. Dan komt er bij DALL-E (althans, bij mij) de volgende afbeelding uit:

De afbeelding die als output uit het AI-systeem ‘rolt’, is niet auteursrechtelijk beschermd omdat er geen menselijke creatieve keuzes zijn gemaakt bij het genereren van de afbeelding. Het AI-systeem maakt enkel kunstmatige keuzes. Let op, het gaat hier alleen om de vraag of de output auteursrechtelijk beschermd is. Het doet er dus niet toe of de instructie (prompt) wel door een mens gegeven is en/of deze prompt auteursrechtelijk beschermd is.

Recentelijk is er voor het eerst in Europa (in Tsjechië) een uitspraak gewezen waarbij een rechtbank oordeelde dat een afbeelding gegenereerd door een AI-tool (specifiek DALL-E), niet auteursrechtelijk beschermd kon zijn omdat er geen creatieve keuzes waren gemaakt door een persoon van vlees en bloed. Het argument van de eisers dat zij de auteurs van de afbeelding zijn omdat de afbeelding was gecreëerd op basis van hun specifieke instructies (prompt), mocht ook niet baten omdat hiervoor onvoldoende bewijs was. Interessant aan deze overweging is dat de Praagse rechter de deur niet volledig sluit. Dus wellicht in het geval dat de eisers wél voldoende bewijs hadden aangedragen dat zij op basis van hun creatieve prompts wel auteursrecht hadden kunnen claimen op de gegenereerde afbeelding.

Als je content genereerd met AI en wil je dat die content auteursrechtelijk beschermd is? Dan:

Tip 3: werk samen met de machine en laat AI niet al het werk doen.

Het kan namelijk van belang zijn dat jouw content auteursrechtelijk beschermd is. Je hebt dan het exclusieve recht om jouw content te exploiteren. Voor elke vorm van kopiëren of publiceren van jouw content is toestemming vereist van jou als maker (of meerdere makers als je samen hebt gewerkt). En voor die toestemming kan je een vergoeding vragen. Als iemand jouw auteursrechtelijke beschermde content (of content die hier heel erg op lijkt) zonder toestemming openbaar maakt kun je hiertegen optreden.

Eerder in mijn artikel schreef ik al dat wanneer output volledig door een AI-systeem gegenereerd is, ook al heeft een mens een creatieve prompt ingevoerd, die output niet auteursrechtelijk beschermd kan zijn. Mocht je toch willen dat deze output auteursrechtelijk beschermd is, tip: werk dan samen met de AI. Dus als we ons konijn nog even als voorbeeld nemen: voeg dan bijvoorbeeld aan de afbeelding van een zelf getekend bloemenveld toe, en voeg bijvoorbeeld accessoires zoals een bril toe of teken een patroon in de hoed. Hoe meer bewerking, hoe groter de kans dat er auteursrecht op de content komt te rusten.

Een andere juridische discussie, weliswaar in de VS, of content gemaakt met AI auteursrechtelijk beschermd kan zijn of niet, heeft in de creatieve wereld van stripverhalen ook al plaatsgevonden. Een Amerikaanse maker van een stripverhaal had karakter Zendaya volledig met AI gecreëerd. Het auteursrechtenbureau in de VS oordeelde dat dit niet auteursrechtelijk beschermd is, omdat het karakter volledig met AI gecreëerd was. De maker voerde nog aan dat ze jaren aan de juiste prompts heeft gewerkt, maar dit mocht niet baten.

Bron: Bedenker krijgt geen auteursrecht op stripverhaal gemaakt met kunstmatige intelligentie | de Volkskrant

Aangezien er steeds meer (juridische) discussies lijken te ontstaan over auteursrechten op content gecreëerd door AI, zijn er tools zoals Copyleaks, die kunnen aantonen dat content door een AI systeem ‘gemaakt’ is en niet door een mens.

Realiseer je dus dat je bij gebruik van AI door de mand kan vallen door dat soort tools. Geen probleem in het geval je voor een opdracht gebruik mocht maken van AI, maar als dit niet de bedoeling is of wanneer hierover niets is afgesproken kan ik me voorstellen dat dit tot problemen kan leiden. Later meer over contractuele afspraken die hierover gemaakt kunnen worden.

Tip 4: verzamel bewijs van jouw samenwerking met AI

Mocht iemand jouw auteursrecht vervolgens in twijfel trekken, verzamel dan bewijs dat je hebt samengewerkt met de AI-tool en in de output nog voldoende bewerkingen hebt aangebracht.

Dit doe je bijvoorbeeld door de verschillende stappen in het creatieve proces vast te leggen. Schetsen en aantekening kunnen helpen om aan te tonen dat er menselijke creatieve keuzes zijn gemaakt.

Tip 5: controleer jouw output

Maak je gebruik van AI, dan wil je natuurlijk geen claim voor je kiezen krijgen, dus tip 5: controleer jouw output! Als je wilde plannen hebt met jouw AI output, wees je ervan bewust dat dit inbreuk kan maken op de (auteurs)rechten van iemand anders.

Om het risico van een auteursrechtclaim te verkleinen wanneer je gebruikmaakt van AI gegenereerde content, is het verstandig om een controle uit te voeren. Een manier om dit te doen is door op Google te zoeken naar termen die betrekking hebben op het door AI gegenereerde werk of door dat werk te uploaden. Een mogelijkheid om dat te doen met een afbeelding is door het te uploaden in Google Images of TinEye. Dit zou een indicatie kunnen geven of het werk auteursrechtelijke elementen van een derde bevat en of daarmee een risico op inbreuk bestaat. Graag wijs ik erop dat deze methoden natuurlijk niet waterdicht zijn.

AI Act

In een juridisch artikel over AI kan de AI Act natuurlijk niet onbesproken blijven. De AI Act is Europese wetgeving waarin voornamelijk verplichtingen zijn opgenomen voor aanbieders van AI-systemen. De tekst van de AI Act wordt eind april of mei 2024 definitief gepubliceerd, maar er is al een versie uitgelekt. Voor exploitanten, makers, gebruikers van AI-systemen volgt uit deze gelekte versie enkel een transparantieverplichting voor deepfakes en informatieve teksten. Deze verplichting gaat gelden een jaar na inwerkingtreding van de AI Act. De andere bepalingen uit de AI Act zien voornamelijk op verplichtingen voor aanbieders van AI-systemen. Hier besteed ik in een volgend artikel aandacht aan.

Als de termijn van de transparantieverplichting ingaat, let dan op bij het gebruik van deepfakes en bij het gebruik van informatieve teksten. Uit de de AI Act volgt dat een exploitant/operator op een duidelijke manier moet melden dat een deepfake en een informatieve tekst met AI gemaakt is. De definitie van een exploitant/operator volgens de AI Act is: een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt. Voor de duidelijkheid nog een definitie van een deepfake volgens de AI Act: wanneer audio-, beeld-, video- of tekstinhoud kunstmatig (met behulp van een AI-systeem) gegenereerd/gemanipuleerd is.

Voor (kennelijk) artistiek, creatief, satirisch of fictief gebruik van deepfakes is de transparantieverplichting iets minder strikt. De melding mag op een passende wijze “die de weergave of het genot van het werk niet belemmert”. Hoe dit precies vorm gegeven zal moeten worden is nog niet duidelijk. Ik kan me voorstellen dat een vermelding in de omschrijving van een Youtube video of in de aftiteling van een film voldoende is.

Overigens geldt er bij een persoonlijk, niet-beroepsmatig gebruik van een deepfake geen meldingsplicht dat sprake is van een deepfake.

Deze meldplicht geldt ook niet wanneer informatieve teksten gegenereerd met AI (specifiek: tekst die publiek informeert over aangelegenheden van algemeen belang) een proces van menselijke toetsing of redactionele controle hebben ondergaan en wanneer een natuurlijke of rechtspersoon redactionele verantwoordelijkheid heeft voor de bekendmaking van de content. Dus als je niet wil melden dat je een nieuwsartikel met behulp van AI hebt geschreven, komt tip 3 weer van pas! Werk samen met de machine.

N.B. De meldplicht voor deepfakes en informatieve teksten bestaat ook niet wanneer het gebruik bij wet is toegestaan om strafbare feiten op te sporen, te voorkomen, te onderzoeken of te vervolgen.

Tip 6: denk na over het gebruik van AI en leg dat vast in een contract

Een laatste, wat mij betreft hele belangrijke tip, tip 6: denk na over het gebruik van AI en leg dat vast in een contract!

Een aantal vragen die je jezelf hierbij kan stellen:

  1. Mag AI gebruikt worden?
    Denk na of je als opdrachtgever of opdrachtnemer überhaupt wil dat AI gebruikt mag of (zelfs) moet worden. Als je als opdrachtgever niet wil dat een opdrachtnemer AI gebruikt, dan kun je dat vastleggen. Bijvoorbeeld in een contract tussen de producent van een film en een acteur, waarin wordt vastgelegd dat de acteur niet vervangen mag worden door AI gegenereerde beelden.Ook als maker kan je er belang bij hebben dat het gebruik van AI niet verplicht wordt, omdat dat wellicht wordt doorberekend in je fee. Dit was in ieder geval waar de scenarioschrijvers in de VS voor vreesden. Zij hebben deze vrees ondervangen door in hun CAO op te laten nemen dat een auteur nooit verplicht kan worden AI te gebruiken.
  2. Als AI gebruikt mag worden, onder welke voorwaarden mag dat dan?
    Als je afspreekt dat AI wel gebruikt mag worden door een opdrachtnemer, dan zou de opdrachtgever daaraan bepaalde voorwaarden kunnen stellen. Denk aan een bepaling waarbij het gebruik van AI wel wordt toegestaan, maar alleen ter inspiratie. Hiervoor verwijs ik naar tip 3: werk samen met de machine. Spreek bijvoorbeeld af dat er bij het gebruik van AI, alsnog menselijke creatieve keuzes gemaakt moeten worden. Dan behoud je de kans dat er auteursrechtelijke bescherming mogelijk is op de content.Je zou ook kunnen afspreken dat AI alleen ingezet mag worden om om slechte opnamekwaliteit te kunnen herstellen.
  1. Als AI gebruikt mag worden, hoe zit het met aansprakelijkheid?
    Een belangrijke contractuele bepaling om over na te denken bij gebruik van AI is de bepaling waarin de aansprakelijkheid geregeld wordt. Het is vrij gebruikelijk in contracten dat de aansprakelijkheid voor een auteursrechtinbreuk bij de maker ligt. Maar als het gebruik van AI verplicht wordt door de opdrachtgever, wie is er dan aansprakelijk voor eventuele inbreuken? Ik kan mij voorstellen dat als de fee voor de maker door verplicht gebruik van AI lager is, de aansprakelijkheid voor een inbreuk verdeeld wordt of zelfs bij de opdrachtgever komt te liggen. Denk ook aan eventuele schade als blijkt dat er helemaal geen auteursrecht rust op de gegenereerde content, omdat de maker AI al het werk heeft laten doen en zelf geen creatieve keuzes gemaakt heeft.
  1. Heeft een maker belang bij een opt-out?
    Het is mogelijk dat een maker, om wat voor reden dan ook, niet wil dat zijn content terecht komt in AI-systemen. Je zou als maker dan in het contract kunnen laten opnemen dat er opt-outs worden toegevoegd bij de gepubliceerde content.
  2. Bereid je voor op de transparantieverplichting uit de AI Act.
    In het kader van de komst van de AI Act kan het nuttig zijn om te weten als exploitant/opdrachtgever of je opdrachtnemers, bijvoorbeeld auteurs van informatieve teksten, AI hebben gebruikt en in welke mate. Zoals ik eerder in dit artikel schreef, geldt de transparantieverplichting voor informatieve teksten die gegenereerd zijn met AI niet wanneer er menselijke controle aan te pas is gekomen. Je zou een soort meldplicht voor de auteur kunnen afspreken.

Heb je vragen of heb je hulp nodig bij het aanpassen of opstellen van contracten waarin AI een rol speelt, neem contact op met tech en AI advocaat Julia van Leeuwen.

Dit artikel is geschreven in samenwerking met Harm Boon.

Neem contact met ons op

advocaat

Julia werkt op de terreinen waarin ons kantoor excelleert: media, intellectueel eigendom, AI, en technologie.

"*" geeft vereiste velden aan

Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

About Julia van Leeuwen

advocaat

Julia is snel een rots in de branding geworden binnen ons kantoor. Ze werkt gedegen en houdt een scherp oog op de bal.

Ze werkt breed op de terreinen waarin ons kantoor excelleert: media, intellectueel eigendom, AI, technologie, (internationale) contracten en arbeidsrecht. Zij doceert het vak Recht aan de Academie voor Theater en Dans, en is zij redactielid (documentatie) bij Mediaforum Tijdschrift voor Media-en Communicatierecht.

Lid van de Vereniging AI Advocaten (VAi-A) en Nederlandse Vereniging voor AI-en Robotrecht (NVAIR).

Meer over Julia van Leeuwen