Hoe AI De Creatieve Sector Uitdaagt

Apeldoorn, maandag, 30 december 2024.
De opkomst van AI-technologie veroorzaakt aanzienlijke uitdagingen voor de creatieve sector, met name door het ongeoorloofd gebruik van gegevens van auteurs en mediabedrijven voor AI-training. Dit bedreigt hun economische model en roept ethische vragen op. De International Confederation of Societies of Authors and Composers waarschuwt dat tegen 2028 tot 28% van het inkomen van de creatieve sector verloren kan gaan door concurrentie met AI. Start-up ProRata, geleid door Bill Gross, werkt aan een chatbot die eerlijk datagebruik moet bevorderen. Er is echter bezorgdheid over hoe moeilijk het voor rechthebbenden is om aan te tonen dat gegenereerde AI-output gebaseerd is op hun data. Auteursverenigingen, zoals Sabam, beschermen hun data proactief tegen AI-ontwikkelaars, waarbij ze hun recht op voorbehoud uitoefenen om toekomstige inbreuken te voorkomen.
De Impact van AI op Journalistieke Content
De uitdagingen voor de creatieve sector manifesteren zich sterk in de journalistiek, waar AI-systemen steeds vaker worden ingezet voor contentcreatie. Grote techbedrijven zoals Google en OpenAI sluiten exclusieve contracten af met uitgevers [1], wat de machtsverhoudingen in de sector verder verschuift. Het Data Provenance Institute toont aan dat 70% van de data voor video-gebaseerde AI-modellen afkomstig is van YouTube [1], wat de concentratie van data in handen van grote techbedrijven illustreert.
Regelgeving en Bescherming
In maart 2024 heeft het Europees Parlement een belangrijke stap gezet door een wet goed te keuren die het gebruik van AI in de EU reguleert. Deze wetgeving wordt gefaseerd ingevoerd en zal in 2026 volledig van kracht zijn [1]. Juridisch expert Thomas Gils wijst erop dat AI-bedrijven in Europa openbare werken als trainingsdata mogen gebruiken zolang rechthebbenden geen expliciet voorbehoud maken [1]. Dit plaatst de verantwoordelijkheid grotendeels bij de contentmakers zelf.
Veiligheid en Controle
Recent onderzoek van de University of Bath en de Technische Universiteit van Darmstadt biedt enige geruststelling wat betreft de controleerbaarheid van AI-systemen. Hun studies tonen aan dat Large Language Models (LLM’s) voorspelbaar en veilig blijven, zelfs wanneer ze met grotere datasets worden getraind [2]. Professor Iryna Gurevych’s team heeft door uitgebreide experimenten aangetoond dat de kracht van deze systemen vooral voortkomt uit het volgen van instructies en niet uit zelfstandig leren [2].
Toekomstperspectief en Uitdagingen
Voor de periode richting 2025 worden nieuwe uitdagingen verwacht, vooral op het gebied van AI-gedreven aanvallen en cybersecurity [5]. De creatieve sector moet zich voorbereiden op een toekomst waarin AI-systemen steeds geavanceerder worden. Paul Keller van de Open Future Foundation waarschuwt dat zelfs met eerlijkere en transparantere AI-modellen, de afhankelijkheid van grote techbedrijven een blijvende uitdaging vormt [1]. Europa probeert hierop te anticiperen met de aangekondigde ontwikkeling van zeven AI-fabrieken om lokale techbedrijven te ondersteunen [1].