Veiligheidsrisico's bij AI-chatbots onder de loep

Veiligheidsrisico's bij AI-chatbots onder de loep

2025-05-22 herkennen

Brussel, donderdag, 22 mei 2025.
Recente studies wijzen op aanzienlijke veiligheidsrisico’s bij AI-chatbots zoals ChatGPT, Gemini en Claude. Onderzoekers hebben ontdekt dat deze systemen gemakkelijk kunnen worden gehackt via zogenaamde ‘jailbreak’ methodes, waardoor gevaarlijke en illegale inhoud kan worden gegenereerd. Dit probleem benadrukt de dringende noodzaak voor technologiebedrijven om hun beveiligingsmaatregelen aan te scherpen. Hoewel sommige bedrijven zoals OpenAI al verbeteringen aan hun modellen hebben doorgevoerd, is gebleken dat de reactie van de industrie als geheel ontoereikend blijft. Experts dringen aan op een combinatie van sterkere beveiligingsprotocollen, beter toezicht op trainingsdata en verbeterde samenwerking binnen de sector om deze toenemende dreiging effectief te bestrijden.

Universele Kwetsbaarheden Ontdekt

Onderzoekers van de Ben Gurion University of the Negev hebben een alarmerende ontdekking gedaan: een universele ‘jailbreak’ die meerdere toonaangevende AI-chatbots kan compromitteren [1][2]. Deze doorbraak stelt hackers in staat om vrijwel elke vraag beantwoord te krijgen, inclusief instructies voor illegale activiteiten [2]. Professor Lior Rokach en Dr. Michael Fire, die het onderzoek leidden, benadrukken dat de combinatie van toegankelijkheid, schaalbaarheid en aanpasbaarheid deze bedreiging uniek maakt in vergelijking met eerdere technologische risico’s [2].

Opkomst van ‘Dark LLMs’

Een zorgwekkende ontwikkeling is de opkomst van zogenaamde ‘dark LLMs’, waaronder Venice.ai, die voor slechts 18 euro per maand toegang biedt tot onbeperkte AI-mogelijkheden [4]. Dit platform, dat zich presenteert als een ‘privacy-eerst’ alternatief voor ChatGPT, kan zonder aarzeling schadelijke content genereren [4]. In tests slaagde Venice.ai erin om volledig functionele malware en spyware te produceren, iets wat conventionele AI-platformen categorisch weigeren [4][5].

Inadequate Reactie Technologiebedrijven

De respons van grote technologiebedrijven op deze beveiligingsdreigingen wordt door experts als ontoereikend beschouwd [2][3]. Sommige bedrijven geven zelfs aan dat deze ‘jailbreak’-aanvallen buiten hun bug bounty-programma’s vallen [2]. OpenAI beweert dat hun nieuwste model beter in staat is om veiligheidsregels toe te passen [3], maar Dr. Ihsen Alouani van Queen’s University Belfast waarschuwt dat bedrijven serieuzer moeten investeren in ‘red teaming’ en model-level robuustheidstechnieken [3].

Bronnen


veiligheid AI-chatbots