Hoe AI de Gezichtsloze Cyberdreiging Menselijker Maakt

Hoe AI de Gezichtsloze Cyberdreiging Menselijker Maakt

2025-05-20 nepnieuws

Amsterdam, dinsdag, 20 mei 2025.
Recent is vastgesteld dat de opkomst van AI-tools zoals DeepSeek een revolutionaire verschuiving heeft veroorzaakt in het domein van cyberdreigingen. Door verbeterde technologieën wordt het eenvoudiger voor cybercriminelen om meer gerichte en moeilijk detecteerbare aanvallen uit te voeren, zoals deepfakes en polymorfische phishing. Dit geeft criminelen de middelen om driedimensionale imitaties te creëren, waardoor zelfs videovergaderingen niet veilig zijn voor oplichting. Een recent incident bij Arup, een Brits ingenieursbureau, toonde dit aan toen het bedrijf maar liefst 25 miljoen dollar verloor aan een geavanceerde deepfake-aanval. De evoluerende methodes van sociale manipulatie maken het noodzakelijk dat organisaties niet alleen op technologische bescherming vertrouwen, maar ook inzetten op mediageletterdheid en een integraal cybersecuritybeleid ontwikkelen om deze dynamische bedreigingen het hoofd te bieden.

De Stijgende Golf van AI-Gedreven Cyberdreigingen

Het cyberdreigingslandschap ondergaat momenteel een dramatische transformatie, waarbij maar liefst 72% van de bedrijven een toename in cyberrisico’s rapporteert. Bijna de helft van alle organisaties wereldwijd identificeert het kwaadwillige gebruik van generatieve AI als hun primaire cybersecurity-zorg [3]. Deze zorgen blijken niet ongegrond: gisteren nog waarschuwde de FBI voor hackers die AI-gegenereerde stemmen gebruiken om Amerikaanse functionarissen te imiteren [5], wat de groeiende sophisticatie van deze aanvallen onderstreept.

Concrete Impact op Organisaties

Martin Kraemer, security awareness advocate bij KnowBe4, benadrukt dat de kwaliteit én kwantiteit van social engineering-aanvallen explosief is gestegen [1]. Een schrijnend voorbeeld hiervan is het recente incident bij het Britse ingenieursbureau Arup, dat 25 miljoen dollar verloor door een geraffineerde deepfake-aanval waarbij fraudeurs zich in een videogesprek voordeden als bedrijfsleiders [1]. Financiële instellingen die zwaar leunen op biometrische authenticatie zijn bijzonder kwetsbaar, aangezien moderne AI-tools met minimaal fotomateriaal overtuigende deepfakes kunnen genereren [1].

Preventie en Bescherming

De conventionele waarschuwingssignalen van cyberfraude, zoals grammaticale fouten of verdachte e-mailadressen, verliezen hun effectiviteit [1]. Als antwoord hierop adviseert Kraemer een drieledige cybersecuritystrategie die technologie, beleid en menselijke intelligentie combineert [1]. Deze aanpak wordt steeds belangrijker, aangezien slechts 14% van de organisaties er zeker van is dat ze over de benodigde mensen en vaardigheden beschikken voor adequate cybersecurity [3].

Bronnen


deepfakes cybercrime