
AI in de cultuursector: ethische dilemma’s, risico’s en maatschappelijke impact
Kunstmatige intelligentie (AI) heeft zich in korte tijd ontwikkeld van experiment naar alledaags hulpmiddel in de cultuursector. Musea, theaters, bibliotheken, archieven, podia en festivals gebruiken AI om collecties te ontsluiten, publieksstromen te analyseren, content te creëren en processen te automatiseren. Dit gebruik roept allerlei vragen op over privacy, bias, duurzaamheid en menselijke arbeid. Des te belangrijker is het om op de hoogte te zijn van de beperkingen en risico’s van deze technologie.
We onderscheiden drie hoofdthema’s: ethische kwesties bij het trainen van AI-modellen, risico’s van AI-gebruik en grote maatschappelijke vragen.
1. Ethische vraagstukken bij het trainen van AI-modellen
Dataverzameling en -gebruik
AI-modellen worden vaak getraind op data die is verzameld zonder expliciete toestemming van de eigenaar of maker. Dat roept vragen op over intellectueel eigendom: Welke teksten, afbeeldingen en video’s mogen worden gebruikt? Moeten makers worden gecompenseerd wanneer hun werk wordt gebruikt? Eerder klaagde The New York Times OpenAI aan vanwege het gebruik van journalistiek werk bij de training van AI-modellen zonder toestemming.
Representatie en bias
De data waarop AI is getraind weerspiegelt maatschappelijke vooroordelen uit het verleden en het heden. Zo maken gezichtsherkenningssystemen meer fouten wanneer bij identificatie van mensen met een donkere huidskleur, wat kan leiden tot onjuiste categorisering of labeling – met alle consequenties van dien.
Milieubelasting
Training van grote AI-modellen vereist enorme rekenkracht en energie, met een flinke CO₂-voetafdruk tot gevolg. Ook de productie van computerchips heeft een aanzienlijke milieu-impact. Weeg de voordelen van AI af tegen de ecologische kosten.
Meer weten over hoe je bewust kunt omgaan met generatieve AI? Lees hier het artikel over de milieu-impact van AI.
Transparantie bij aanbieders
AI is vaak een ‘black box’: zelfs ontwikkelaars begrijpen niet altijd hoe AI-modellen tot bepaalde uitkomsten komen. De AI Act legt een transparantieverplichting op voor aanbieders. Zij moeten informatie over een AI-model verstrekken en duidelijk maken wanneer het publiek met een AI communiceert. De gevolgen van de ‘black box’ die AI is, kunnen heel ingrijpend zijn, bijvoorbeeld als een AI-model de verkeerde medische behandeling adviseert maar niemand kan uitleggen waarom.
Uitbuiting van arbeiders
Tal van werknemers zijn dag in dag uit bezig om AI-modellen te trainen en te verbeteren. Dat zijn vaak slecht betaalde arbeiders die onder zware omstandigheden werken. In 2023 bleek dat Keniaanse medewerkers voor minder dan 2 dollar per uur extreem schadelijke content moesten beoordelen om taalmodellen veiliger te maken.
2. Risico's bij het gebruik van AI
Hallucinaties en onbetrouwbare uitkomsten
AI kan antwoorden genereren die feitelijk onjuist zijn, ook wel hallucinaties genoemd. Taalmodellen zijn namelijk getraind om op elke vraag antwoord te geven, ook wanneer ze het antwoord niet beschikbaar is. Dit komt steeds minder vaak voor, maar wanneer het gebeurd kunnen de consequenties erg vervelend zijn. Hoewel dit minder vaak voorkomt, kunnen de gevolgen nog steeds vervelend zijn. Een Amerikaanse advocaat dacht veel werk te besparen door met ChatGPT zijn rechtszaak voor te bereiden. Hij gebruikte daarvoor niet-bestaande juridische uitspraken waarna de rechter hem op de vingers tikte.
Vervanging van menselijke arbeid
We automatiseren met AI-systemen steeds meer taken die eerst door mensen werden uitgevoerd. Getty Images heeft rechtszaken aangespannen tegen AI-bedrijven die hun stockfoto’s gebruikten. Illustratoren merken nu al dat hun opdrachten afnemen door de opkomst van AI-gegenereerde afbeeldingen. Ook (stem)acteurs worden soms vervangen door AI-stemmen en digitale klonen.
Privacy
AI-technologieën maakt nieuwe vormen van surveillance mogelijk. Festivals en andere grote evenementen gebruiken slimme camera’s om bezoekersstromen te analyseren en optimaliseren. Dit verhoogt de veiligheid, maar kan ook worden ervaren als een inbreuk op je privacy.
En wat te denken van de informatie die je met een AI-tool deelt? Die wordt opgenomen in een database, ook als het om persoonsgegevens of bedrijfsgevoelige informatie gaat.
Wil je weten wat er allemaal bij AVG-proof werken komt kijken? Lees in dit artikel meer over welke data je mag verzamelen en hoe je dit veilig kan inzetten om je publiek te bereiken.
Afhankelijkheid en verlies van vaardigheden
Als AI taken overneemt die mensen voorheen deden, lopen bepaalde kennis, vaardigheden en expertise terug. Door jarenlange ervaring kunnen eindredacteuren een goede krant samenstellen en een pakkende titel voor een artikel bedenken. Wanneer dat wordt uitbesteed aan AI, is het resultaat misschien wel vergelijkbaar, maar bouwt niemand die vaardigheden meer op.
Bewuste verspreiding van desinformatie en manipulatie
Met generatieve AI-tools is het mogelijk om overtuigend nepnieuws te creëren. Denk bijvoorbeeld aan de deepfakevideo van de Oekraïense president Zelensky, waarin hij zogenaamd opriep tot overgave aan Rusland. Ook Amerikanen werden in de luren gelegd: zij werden gebeld door de stem van Joe Biden met de boodschap om niet te gaan stemmen. Lees in dit artikel meer over deepfakes en de AI Act.
Auteurs- en portretrecht
Wie is de eigenaar van content die met AI is genereert? Dat is juridisch gezien een grijs gebied, wat voor een complexe situatie zorgt voor creatieve makers. Zij moeten zelf actie ondernemen om ervoor te zorgen dat hun werk niet wordt opgenomen in taalmodellen. Hoe dat werkt en hoe je als maker met AI-tools kunt werken en toch eigenaarschap krijgt over het (kunst)werk, lees je in dit artikel.
Transparantie over AI-gebruik
De Europese AI Act verplicht transparantie over AI-gebruik. Voordat deze wetgeving van kracht werd, won fotograaf Boris Eldagsen de Sony World Photography Award met deze foto. Hij weigerde de prijs omdat hij de foto met AI maakte. Hij wilde hiermee een statement maken en de discussie starten over de impact van AI in de fotografie.
3. Grote maatschappelijke vragen
Verantwoordelijkheid en aansprakelijkheid
Wie is verantwoordelijk voor eventuele schade die AI veroorzaakt? Bij een dodelijk ongeval met een zelfrijdende Uber-auto in 2018 ontstond onduidelijkheid over wie aansprakelijk was: de veiligheidschauffeur, Uber of de AI-ontwikkelaars? Channel 1 wil de eerste nieuwszender zijn die volledig door AI wordt gemaakt. Wie is aansprakelijk wanneer dat nieuws niet klopt?
Machtsconcentratie
Er zijn flinke investeringen nodig om taalmodellen voor AI-tools te ontwikkelen. Daardoor ligt de macht vooral bij een aantal grote – vaak Amerikaanse – technologiebedrijven, zoals OpenAI, Google, Microsoft en xAI, die samen de Europese markt beheersen. Wat betekent het als een beperkt aantal organisaties de ontwikkelingen in AI bepalen?
Menselijke autonomie
AI-systemen nemen steeds meer beslissingen voor ons. Wat betekent dat voor onze menselijke autonomie? Welke keuzes mag AI maken en welke niet? Het Cambridge Analytica-schandaal liet zien hoe de data en algoritmes van sociale media ons stemgedrag kunnen beïnvloeden.
Hoe gaat jouw organisatie om met AI? Stel een AI-beleid op voor jouw organisatie met behulp van het stappenplan.
Deel dit artikel
Hoe gaat jouw organisatie om met AI?
Ga met praktische handvatten direct aan de slag gaan. Schrijf met een stappenplan een AI-beleid dat aansluit bij de visie en waarden van je organisatie.