Strengere regels voor General Purpose AI (GPAI), ben jij voorbereid op fase twee van de AI Act?

In augustus 2024 is de Europese AI Act officieel in werking getreden. Deze wetgeving heeft als doel het gebruik van kunstmatige intelligentie (AI) binnen de EU te reguleren. Per augustus 2025 gaat fase twee van de AI Act in. Dat betekent strengere regels voor AI-modellen zoals ChatGPT, DALL·E en andere zogeheten General Purpose AI (GPAI). In dit artikel lees je wat deze wetgeving inhoudt en wat dit concreet betekent voor jouw organisatie.

8 min.

De AI Act wordt stapsgewijs ingevoerd. Sinds 2 februari 2025 gelden al de regels rond verboden AI-systemen en de verplichting om te werken aan AI-geletterdheid. De volgende stap gaat op 2 augustus 2025 in. Dan gelden er nieuwe eisen voor AI-modellen die bedoeld zijn voor algemene toepassingen: de zogenaamde General Purpose AI (GPAI). In dit artikel leggen we uit wat dit precies betekent.

Wat is General Purpose AI (GPAI)?

De AI Act verdeelt AI-systemen in vier risiconiveaus: verboden, hoog risico, laag en minimaal risico. GPAI is een aparte categorie die naast deze indeling is gelegd. 

Voorbeelden van GPAI-modellen die ook veel in de cultuursector worden toegepast zijn:

  • Taalmodellen zoals GPT-4 (waar bijvoorbeeld ChatGPT op is gebouwd)
  • Vertaaltools zoals Google Translate en DeepL
  • Beeldgeneratoren zoals DALL-E en Midjourney
  • Programmeerhulpen zoals Copilot en Cursos

Omdat GPAI bestemd is voor ‘algemene doeleinden’ en voor allerlei toepassingen kan worden ingezet, hangt het risiconiveau af van het specifieke gebruik. Juist omdat deze GPAI-modellen zo veelzijdig zijn, is het moeilijk om alle mogelijke effecten en implicaties van het gebruik ervan te voorzien. Een goede risicobeheersing is van groot belang en daarom gelden er aanvullende transparantievereisten voor de aanbieders van GPAI-modellen. Hoe groter het risico, hoe strenger die eisen.

Transparantieverplichting

Aanbieders van GPAI-modellen moeten aan een aantal (transparantie)regels voldoen:

  1. Technische documentatie

    Ze moeten technische documentatie beschikbaar stellen.

  2. Data

    Ze moeten een samenvattingen verstrekken over de data die gebruikt zijn om het model te trainen.

  3. Beleid

    Ze moeten beleid opstellen dat in lijn is met Europese auteursrechtwetgeving (zoals het aanbieden van opt-outmogelijkheden voor makers).

Wanneer je als organisatie bestaande tools gebruikt dan gelden bovenstaande regels in het algemeen niet. Het is belangrijk om je te realiseren dat wanneer je een bestaand AI-model aanpast of er zelf een ontwikkelt je mogelijk wel onder de aanbieder-regels valt.

De meeste toepassingen die binnen de culturele sector worden gebruikt zullen als ‘laag risico’ gelden, en hoeven daarmee alleen te voldoen aan de transparantieverplichtingen. Bijvoorbeeld als je tools gebruikt waarbij sprake is van directe interactie met mensen, zoals een chatbot op je website. Je bent dan verplicht om duidelijk te maken aan de bezoekers van je site dat ze met AI communiceren en niet met een natuurlijke persoon.

Maar maak je gebruik van een algoritme voor het beoordelen van sollicitaties dan is de kans groot dat dit onder hoog-risicosystemen valt. Onder andere vanwege de kans op discriminatie en uitsluiting. In dit geval gelden er aanvullende verplichtingen; bijvoorbeeld menselijk toezicht.

Nieuwsberichten en andere teksten

Voor AI gegenereerde teksten zijn de regels net iets anders: daarvoor geldt dat bij teksten die je publiceert ‘om het publiek te informeren over aangelegenheden van algemeen belang’ - zoals nieuwsberichten - je bekend moet maken dat de tekst kunstmatig is gegenereerd of bewerkt. Als je de tekst zelf nog bewerkt of controleert vóór publicatie, dan geldt die verplichting niet.

Deepfake afbeelding van Paus Franciscus in winterjas gemaakt met behulp van Midjourney
Een foto van Paus Franciscus in winterjas gemaakt met behulp van Midjourney.

Deepfakes

Speciale aandacht is er in de AI Act voor AI-systemen die zogenaamde ‘synthetische’ content genereren: deepfakes. De AI Act hanteert hiervoor een heel brede definitie: alle ‘door AI gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal dat een gelijkenis vertoont met bestaande personen, voorwerpen of gebeurtenissen, en door een persoon ten onrechte voor authentiek kan worden aangezien’.

Omdat deepfakes schadelijk kunnen zijn (denk aan misleiding of oplichting), moeten ze altijd duidelijk herkenbaar zijn als AI-content. Dit kan via een watermerk, metadata of een digitale ‘vingerafdruk’. De regels gelden niet voor content die géén gelijkenis vertoont met bestaande mensen of dingen – zoals cartoons.

Daarbij is er een uitzondering voor werk dat duidelijk onderdeel is van een artistiek, creatief, satirisch, fictief analoog werk of programma. Ook daar geldt in principe een transparantieverplichting, maar die mag de artistieke vrijheid niet beperken. In zulke gevallen volstaat bijvoorbeeld een disclaimer bij de start of aan het einde van de tentoonstelling, het werk of in het colofon.

AI-geletterdheid

Zoals eerder genoemd zijn organisaties sinds 2 februari 2025 verplicht om te werken aan AI-geletterdheid binnen de organisatie. Dat betekent: het ontwikkelen van kennis, vaardigheden en inzicht in hoe AI werkt – zowel technisch als ethisch, sociaal en praktisch.

Wil je daar een eerste stap in zetten? Meld je dan aan voor het AI-leerprogramma van DEN:

Deel dit artikel

Binnen 30 minuten op de hoogte!

Meld je aan voor de gratis Lunch & Learn over fase 2 van de AI-Act op 17 juli. Wij praten je bij over wat er verandert en beantwoorden je vragen. We starten om 12 uur, tot dan!

Ontdek de laatste digitale trends in de cultuursector

Ontvang iedere maand onze nieuwsbrief met tips, kennis en inspiratie over digitale transformatie in cultuur.