Hoe (On)herkenbaar Zijn Deepfakes in 2025?

Amsterdam, zaterdag, 21 juni 2025.
Recent onderzoek toont dat veel mensen moeite hebben met het identificeren van deepfakes, zelfs na training. Deze bevindingen zijn cruciaal in een tijdperk waarin de betrouwbaarheid van informatie steeds meer onder druk staat door technologische vooruitgang. Een significant aantal deepfake-stemmen werd niet goed van echtheid onderscheiden, wat vragen oproept over hoe toekomstige mediasystemen worden beïnvloed. Mandarijnsprekers bleken meer te letten op ritme, terwijl Engelssprekenden de nadruk legden op ademhaling, wat wijst op culturele verschillen in intuïtieve herkenning.
Deepfakes en Hun Onzichtbare Gevaren
Het vermogen van deepfake-technologie om authentiek ogende, maar valse inhoud te creëren, voedt een grote uitdaging voor individuen en organisaties wereldwijd. Onlangs ontdekte onderzoek toont aan dat 73% van de deelnemers erin slaagde echte stemmen van deepfakes te onderscheiden, maar dat betekent ook dat een aanzienlijk deel mislukte, zelfs na training [1]. Dit roept dringende vragen op over de impact van deze technologie op media en hoe mediaboodschappen op betrouwbare wijze kunnen worden onderscheidden [1]. Vooral Mandarijnsprekers, met aandacht voor ritme en cadans, en Engelssprekenden, die zich richten op ademhaling, wijzen erop dat culturele verschillen bijdragen aan de intuïtieve herkenning van deepfakes [3].
Implicaties voor Mediageletterdheid en Democratie
De groeiende mate waarin deepfakes geloofwaardig zijn, lijkt een directe bedreiging voor mediageletterdheid en democratische processen te vormen. Incidenteel gebruik van deepfakes om in Hongkong een werknemer tot een frauduleuze betaling van $25 miljoen te verleiden illustreert hoe deze technologie niet alleen reputaties kan schaden, maar ook veiligheidsrisico’s inhoudt [2]. Het gevaar is niet alleen theoretisch; de dreiging van deepfakes is reëel, zoals experts aandringen om juridische en ethische kaders te ontwikkelen om bedrijven en individuen te beschermen [2][4].
AI’s Dubbelrol: Verspreiden én Bestrijden van Nepnieuws
Terwijl AI een hulpmiddel is in de productie van deepfakes, biedt het ook middelen om ze te bestrijden. Bijvoorbeeld, de geavanceerde ‘liveness detection’ technologie, ontwikkeld door bedrijven zoals Jumio, helpt bij het detecteren van deepfakes door echte biometrietests te verbeteren en mash-ups van nepinformatie te voorkomen [5]. Het is een voorbeeld van hoe technologische vooruitgang kan worden gebruikt om innovatieve oplossingen te bieden in de strijd tegen nepnieuws en om de integriteit van communicatie te bewaren [1][5].
Praktische Tips voor Herkenning van Nepnieuws
Om buitengewoon vertrouwen te ontwikkelen in de echtheid van informatie, worden lezers aangemoedigd om verschillende benaderingen te gebruiken. Beoordeel in eerste instantie de bron, check voor contextuele inconsistenties, en vergelijk verdachte informatie met meerdere betrouwbare bronnen [3]. Met de vooruitgang in AI-technologieën is het ook aan te raden om hulpmiddelen zoals geautomatiseerde deepfake-detectoren te gebruiken, die voortdurend verbeteren om nepinformatie te identificeren [1][5].