
AI en auteursrecht: de strijd om de broncode van onze cultuur
De opkomst van generatieve AI roept fundamentele vragen op over privacy, ethiek en, misschien wel de belangrijkste voor de cultuursector: auteursrecht. Terwijl de één de technologie omarmt, ziet de ander een existentiële dreiging. De discussie spitst zich wereldwijd toe op twee fronten: de werkgelegenheid en het trainen van modellen met werk van makers.
In dit artikel focussen we op dat laatste: de training van AI. Is het de ‘grootste kunstroof van de eeuw’, of juridisch simpelweg toegestaan?
Trainen of stelen?
In een recent opinieartikel in NRC noemde Birgit Donker het trainen van AI-modellen op andermans werk een ‘grote kunstroof’. Ze stelt dat de Nederlandse overheid AI-gebruik stimuleert, maar wegkijkt bij auteursrechtschendingen door techbedrijven.
Toch ligt het juridisch genuanceerder. In Nederland en de EU is het trainen van AI op auteursrechtelijk beschermd materiaal in principe geen diefstal. Volgens de EU-auteurswetgeving (rondom text and data mining) en de nieuwe Europese AI Act is training toegestaan, mits:
- De bronnen op rechtmatige wijze toegankelijk zijn en.
- Er geen gebruik is gemaakt van een opt-out.
Pas wanneer bedrijven illegale bronnen gebruiken — zoals Meta deed met de illegale boekensite LibGen — is er juridisch sprake van diefstal.
De ‘Value Gap’: wie krijgt de rekening?
Maar dat iets legaal is, betekent niet dat het eerlijk aanvoelt. Er ontstaat een zogenaamde value gap: AI-bedrijven verdienen miljarden dankzij de data van makers, terwijl die makers zelf geen vergoeding krijgen. Hoe lossen we dit op? Momenteel zien we drie bewegingen: rechtszaken, opt-outs en licenties.
Rechtszaken: de wereldkaart van AI-recht
De Amerikaanse hoogleraar IE-recht Edward Lee bracht onlangs de wildgroei aan rechtszaken in kaart. In de VS lopen er momenteel al bijna honderderd rechtszaken, en ook in Europa neemt het aantal toe. Omdat definitieve uitspraken lang op zich laten wachten , is het op dit moment lastig te voorspellen hoe de rechterlijke macht oordeelt over inbreuk tijdens AI-training.
Opt-out: een machineleesbaar ‘nee’
Makers die niet willen dat hun werk in een AI-model belandt, kunnen een rechtenvoorbehoud instellen. Dit moet wel machineleesbaar gebeuren (bijvoorbeeld via een robots.txt-protocol of via de algemene voorwaarden op een website). Naast individuele acties ontstaan er collectieven, zoals het Nederlandse Opt Out Collective (onderdeel van Federatie Beeldrechten). Zij hebben inmiddels 100.000 opt-outs verzameld van makers en organisaties zoals Pictoright.
Licenties: de nieuwe standaard?
We zien een voorzichtige verschuiving naar licentiedeals. OpenAI sloot al deals met nieuwsgiganten als The Associated Press, The Guardianen Le Monde, en recentelijk zelfs met Disney.
Opvallend is de deal tussen Universal Music Group (UMG) en AI-platforms zoals Udio en Nvidia AI. UMG klaagde Udio eerst aan voor inbreuk, maar kiest nu voor een ‘strategische samenwerking’. Ze willen daarmee een ecosysteem creëren waarin controle en transparantie centraal staan.
De keerzijde van licentiedeals: experts zien dit als een kans voor nieuwe kaders, maar er kleven nadelen aan:
- Machtsongelijkheid: het zijn vaak deals tussen techreuzen en mediagiganten. De individuele maker en kleinere spelers staat buitenspel.
- Ondoorzichtigheid: de inhoud van de deals blijft geheim. Hoeveel de eigenlijke maker hiervan profiteert, is onbekend.
Alternatieve modellen: heffingen en API's
Er wordt gezocht naar eerlijkere systemen. Hoogleraar Martin Senftleben van de UvA pleit voor een vergoedingenmodel. Hierbij betalen AI-bedrijven een heffing die via collectieve beheersorganisaties (zoals Pictoright, Lira of Buma/Stemra) direct bij de makers terechtkomt. Dit kan via een wettelijke licentie in de trainingsfase of een vergoeding zodra het AI-systeem op de markt komt.
Een ander model komt van de Wikimedia Foundation. Zij sloten API access deals met o.a. Microsoft, Meta en Amazon. Dit zijn geen licenties op de inhoud, maar betaalde toegangspoorten tot de data. Zo blijven de CC-licenties van Wikipedia intact, terwijl techbedrijven bijdragen aan de instandhouding van de vrije informatiebron.
De Nederlandse weg: GPT-NL
Tot slot wordt er gewerkt aan verantwoorde alternatieven. Met GPT-NL krijgt Nederland een eigen taalmodel dat betrouwbaar, transparant en soeverein is. Het grote verschil? Voor de training van GPT-NL wordt uitsluitend data gebruikt waarvoor een geldige licentie is afgegeven of waarvoor geen licentie nodig is. Een model dat bouwt op respect voor de maker, in plaats van op de ‘kunstroof’.

