Bedrijven bezorgd over veiligheidsrisico's GenAI en deepfakes

Bedrijven bezorgd over veiligheidsrisico's GenAI en deepfakes

2024-10-23 deepfakes

Nederland, woensdag, 23 oktober 2024.
Uit onderzoek van Deloitte blijkt dat Nederlandse en Europese bedrijven zich zorgen maken over de veiligheidsimplicaties van generatieve AI en deepfakes. Hoewel 65% van de Nederlandse respondenten bekend is met GenAI-tools, is er aarzeling over het gebruik ervan op de werkvloer. Slechts 35% van de Nederlandse bedrijven stimuleert actief het gebruik van GenAI. Opvallend is dat 28% van de Nederlandse GenAI-gebruikers extreem bezorgd is over deepfakes. Deze bevindingen onderstrepen de noodzaak voor betere ondersteuning, training en veilige adoptiestrategieën om GenAI effectief te integreren in de werkomgeving.

De opkomst van deepfake-technologie

Deepfake-technologie heeft de laatste jaren een enorme ontwikkeling doorgemaakt. Met behulp van kunstmatige intelligentie en machine learning worden video- en audiocontent gemanipuleerd om levensechte vervalsingen te creëren. Platformen zoals thispersondoesnotexist.com maken gebruik van StyleGAN2 om realistische beelden te genereren van niet-bestaande personen. Deze technologie heeft niet alleen potentieel voor creatieve en entertainmentdoeleinden, maar vormt ook aanzienlijke risico’s op het gebied van fraude en desinformatie[1].

Impact op de journalistiek

De journalistiek staat voor grote uitdagingen door de verspreiding van deepfakes. Deze technologie kan worden gebruikt om valse nieuwsberichten te creëren en de geloofwaardigheid van echte nieuwsuitzendingen in twijfel te trekken. De proliferatie van deepfakes dreigt het vertrouwen van het publiek in media te ondermijnen, vooral wanneer videobewijs niet langer betrouwbaar is. Journalisten moeten nu meer dan ooit investeren in technologieën om deepfakes te detecteren en te verifiëren, zoals de tools ontwikkeld door C2PA en DALL-E, die metadata toevoegen om authenticiteit te waarborgen[2].

Detectie en bestrijding van deepfakes

Om de impact van deepfakes te beperken, zijn er verschillende detectiemethoden ontwikkeld. Software zoals SightEngine AI kan helpen bij het identificeren van AI-gegenereerde media. Deze tools zijn echter vaak kostbaar en vereisen aanzienlijke middelen om effectief te zijn. Bovendien richt de Coalition for Content Provenance and Authenticity (C2PA) zich op het verifiëren van digitale inhoud om desinformatie te bestrijden. Ondanks deze inspanningen blijft het soms moeilijk om nepcontent van echt te onderscheiden, wat de noodzaak onderstreept voor voortdurende ontwikkeling en investeringen in detectietechnologieën[3].

Toekomstige uitdagingen en expert opinies

Experts waarschuwen dat de uitdagingen rond deepfakes en generatieve AI alleen maar zullen toenemen. Marc Verdonk, Chief Technology Officer bij Deloitte Nederland, benadrukt dat het verbieden van GenAI niet de oplossing is, aangezien medewerkers deze tools toch zullen gebruiken. In plaats daarvan pleit hij voor veilige adoptie, grondige training en transparantie. Deze benadering kan helpen om de potentiële risico’s te minimaliseren en tegelijkertijd de voordelen van GenAI te benutten. Het is essentieel dat organisaties blijven investeren in educatie en technologie om voorbereid te zijn op de uitdagingen van morgen[4].

Bronnen


genai veiligheid msandbu.org www.banken.nl www.thefashionlaw.com