Strengere regels voor General Purpose AI (GPAI), ben jij voorbereid op fase twee van de AI Act?

In augustus 2024 is de Europese AI Act officieel in werking getreden. Deze wetgeving heeft als doel het gebruik van kunstmatige intelligentie (AI) binnen de EU te reguleren. Per augustus 2025 gaat fase twee van de AI Act in. Dat betekent strengere regels voor AI-modellen zoals ChatGPT, DALL·E en andere zogeheten General Purpose AI (GPAI). In dit artikel lees je wat deze wetgeving inhoudt en wat dit concreet betekent voor jouw organisatie.

8 min.

De AI Act wordt stapsgewijs ingevoerd. Sinds 2 februari 2025 gelden al de regels rond verboden AI-systemen en de verplichting om te werken aan AI-geletterdheid. De volgende stap gaat op 2 augustus 2025 in. Dan gelden er nieuwe eisen voor AI-modellen die bedoeld zijn voor algemene toepassingen: de zogenaamde General Purpose AI (GPAI). In dit artikel leggen we uit wat dit precies betekent.

Wat is General Purpose AI (GPAI)?

De AI Act verdeelt AI-systemen in vier risiconiveaus: verboden, hoog risico, laag en minimaal risico. GPAI-modellen zijn als aparte categorie naast deze indeling toegevoegd. De reden daarvoor is dat GPAI-modellen bestemd zijn voor ‘algemene doeleinden’ en voor allerlei toepassingen kunnen worden ingezet. GPAI-modellen fungeren als de basis voor verschillende AI-systemen. Voor die systemen geldt dat hun risiconiveau afhankelijk is van het specifieke gebruik.

Juist omdat deze GPAI-modellen zo veelzijdig zijn, is het moeilijk om alle mogelijke effecten en implicaties van het gebruik ervan te voorzien. Een goede risicobeheersing is van groot belang en daarom gelden er aanvullende transparantievereisten voor de aanbieders van GPAI-modellen. Voor GPAI-modellen met een zogenaamd systeemrisico (met heel grote rekenkracht en daarmee mogelijk serieuze consequenties voor bijvoorbeeld de publieke gezondheid en veiligheid, mogelijke negatieve effecten op democratische processen) gelden zwaardere eisen.

Voorbeelden van GPAI-modellen die ook veel in de cultuursector worden toegepast zijn:

  • Taalmodellen zoals GPT-4 (waar bijvoorbeeld ChatGPT op is gebouwd)
  • Vertaaltools zoals Google Translate en DeepL
  • Beeldgeneratoren zoals Stable Diffusion (waar Midjourney op is gebouwd)
  • Programmeerhulpen zoals Copilot en Cursos

Transparantieverplichting

Aanbieders van GPAI-modellen moeten aan een aantal (transparantie)regels voldoen:

  1. Technische documentatie

    Ze moeten technische documentatie beschikbaar stellen.

  2. Data

    Ze moeten een samenvattingen verstrekken over de data die gebruikt zijn om het model te trainen.

  3. Beleid

    Ze moeten beleid opstellen dat in lijn is met Europese auteursrechtwetgeving (zoals het aanbieden van opt-outmogelijkheden voor makers).

Ook heeft de EU een (vrijwillige) gedragscode ontwikkeld die aanbieders van GPAI-modellen moet ondersteunen bij het naleven van hun wettelijke verplichtingen. De gedragscode is opgesteld in samenspraak met een groot aantal partijen – naast aanbieders van GPAI-modellen en de wetenschap zijn ook culturele organisaties en organisaties van rechthebbenden vertegenwoordigd. Meer informatie over de gedragscode vind je hier (Opent een externe link).

Transparantieverplichtingen voor aanbieders en gebruikers van bepaalde AI-systemen

Ook voor de aanbieders en gebruikers van bepaalde AI-systemen gelden transparantieverplichtingen. 

De transparantie-eisen gelden bijvoorbeeld voor aanbieders van tools waarbij sprake is van directe interactie met mensen, zoals een chatbot op je website. Je bent dan verplicht om duidelijk te maken aan de bezoekers van je site dat ze met AI communiceren en niet met een natuurlijke persoon. Het is belangrijk om je te realiseren dat wanneer je een bestaand AI-systeem of tool aanpast of er zelf een ontwikkelt je mogelijk onder de aanbieder-regels valt.

Deepfake afbeelding van Paus Franciscus in winterjas gemaakt met behulp van Midjourney
Een foto van Paus Franciscus in winterjas gemaakt met behulp van Midjourney.

Deepfakes

Speciale aandacht is er in de AI Act voor AI-systemen die zogenaamde ‘synthetische’ content genereren: deepfakes. De AI Act hanteert hiervoor een heel brede definitie: alle ‘door AI gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal dat een gelijkenis vertoont met bestaande personen, voorwerpen of gebeurtenissen, en door een persoon ten onrechte voor authentiek kan worden aangezien’.

Omdat deepfakes schadelijk kunnen zijn (denk aan misleiding of oplichting), moeten ze altijd duidelijk herkenbaar zijn als AI-content. Dit kan via een watermerk, metadata of een digitale ‘vingerafdruk’. De regels gelden niet voor content die géén gelijkenis vertoont met bestaande mensen of dingen – zoals cartoons.

Daarbij is er een uitzondering voor werk dat duidelijk onderdeel is van een artistiek, creatief, satirisch, fictief analoog werk of programma. Ook daar geldt in principe een transparantieverplichting, maar die mag de artistieke vrijheid niet beperken. In zulke gevallen volstaat bijvoorbeeld een disclaimer bij de start of aan het einde van de tentoonstelling, het werk of in het colofon.

Nieuwsberichten en andere teksten

Voor AI gegenereerde teksten zijn de regels net iets anders: daarvoor geldt dat bij teksten die je publiceert ‘om het publiek te informeren over aangelegenheden van algemeen belang’ - zoals nieuwsberichten - je bekend moet maken dat de tekst kunstmatig is gegenereerd of bewerkt. Als je de tekst zelf nog bewerkt of controleert vóór publicatie, dan geldt die verplichting niet.

AI-geletterdheid

Zoals eerder genoemd zijn organisaties sinds 2 februari 2025 verplicht om te werken aan AI-geletterdheid binnen de organisatie. Dat betekent: het ontwikkelen van kennis, vaardigheden en inzicht in hoe AI werkt – zowel technisch als ethisch, sociaal en praktisch.

Wil je daar een eerste stap in zetten? Meld je dan aan voor het AI-leerprogramma van DEN:

Deel dit artikel

Ontdek de laatste digitale trends in de cultuursector

Ontvang iedere maand onze nieuwsbrief met tips, kennis en inspiratie over digitale transformatie in cultuur.