Deepfakes: Het Dubbele Zwaard van de Digitale Wereld

Deepfakes: Het Dubbele Zwaard van de Digitale Wereld

2025-03-07 nepnieuws

internationaal, vrijdag, 7 maart 2025.
Deepfake-technologie, die ooit bedoeld was voor creatieve toepassingen zoals film en virtuele realiteit, wordt tegenwoordig steeds vaker ingezet als een instrument voor intimidatie en desinformatie. Met name het toenemende gebruik van deepfakes om te pesten baart zorgen. Een onthutsend voorbeeld is het verhaal van een 12-jarig meisje dat slachtoffer werd door een AI-gegenereerde afbeelding. Deepfakes worden gezien als een grote bedreiging voor persoonlijke privacy en de integriteit van informatie, vooral omdat 96% ervan pornografische doeleinden dient. Experts benadrukken de noodzaak van publieke bewustwording en educatie over de risico’s van deepfakes, terwijl ze ook worden aangewend voor praktische en artistieke doeleinden, zoals in het Dalí Museum in Florida. Deze technologie biedt fascinerende mogelijkheden, maar vereist ook ethische grenzen om te voorkomen dat ze een negatieve impact heeft op samenlevingen en individuen.

De Groeiende Dreiging van Digitale Manipulatie

In juli 2024 werd een 12-jarig meisje het slachtoffer van een verontrustende vorm van cyberpesten waarbij haar gezicht via AI-tools op pornografische beelden werd geplaatst [1]. Dit incident staat niet op zichzelf: onderzoek van het AI-bedrijf Deeptrace toont aan dat 96% van alle online deepfake-video’s pornografisch van aard is en vaak zonder toestemming wordt gemaakt [1].

Technologische Ontwikkelingen en Bescherming

Om deze groeiende dreiging tegen te gaan, heeft DARPA een samenwerkingsverband gesloten met het Digital Safety Research Institute voor de ontwikkeling van geavanceerde detectiemethoden [2]. Deze tools, die voortkomen uit het Media Forensics-programma dat in 2016 begon, zijn nu beschikbaar via een open-source platform [2]. Momenteel bereiken moderne detectietools zoals Intel’s FakeCatcher een nauwkeurigheid van 96% onder gecontroleerde omstandigheden [3].

Internationale Aanpak en Bewustwording

Nation-state actoren, waaronder Iran, China, Noord-Korea en Rusland, maken steeds vaker gebruik van AI-gegenereerde deepfakes voor cyberoperaties [3]. Als reactie hierop ontwikkelen organisaties zoals OpenAI watermerktechnologieën voor AI-gegenereerde content [3]. Het Makedonisch Instituut voor Media heeft afgelopen woensdag workshops georganiseerd voor meer dan 220 studenten, gericht op het herkennen van deepfakes en het beschermen tegen online desinformatie [4].

Praktische Detectiemethoden

Experts adviseren om te letten op onnatuurlijke knipperingen, inconsistente audio- en lipbewegingen en afwijkingen in belichting bij het identificeren van deepfakes [1]. Moderne detectietools zoals Sensity AI claimen een detectiepercentage van 95-98% en hebben in het afgelopen jaar meer dan 35.000 kwaadaardige deepfakes geïdentificeerd [3].

Bronnen


deepfakes intimidatie