De Onvoorspelbare Mens: Hoe AI Grenzen Ervaart in Predictive Policing

Rotterdam, woensdag, 30 april 2025.
De Erasmus Universiteit Rotterdam presenteert een tweedelige serie over het gebruik van AI in predictive policing, waarbij de focus ligt op de beperkingen van AI-systemen bij het voorspellen van menselijk gedrag. Wetenschappers benadrukken dat menselijke gedragingen complex en vaak niet eenduidig te voorspellen zijn, wat een uitdaging vormt voor de effectiviteit van deze technologie in de rechtshandhaving. Hoewel de technologie beloftevol lijkt voor criminaliteitspreventie, zijn er significante zorgen over privacy en de potentiële stigmatisering van individuen. Dit onderzoek roept op tot voorzichtigheid bij de inzet van AI, gezien de ondoorzichtigheid van deze zelflerende modellen en de noodzaak van transparantie en ethische overwegingen in het gebruik van persoonlijke data. Deel 2 van de serie, dat volgende week verschijnt, zal verder ingaan op hoe AI positief kan bijdragen aan het politiewerk.
De Evolutie van Predictive Policing
De geschiedenis van predictive policing kent belangrijke mijlpalen. Het Los Angeles Police Department introduceerde in 2012 het PredPol-systeem, gevolgd door Nederland dat sinds 2014 het Criminality Anticipation System (CAS) gebruikt [1]. Waar PredPol positieve resultaten liet zien in criminaliteitsreductie, toonde het Nederlandse CAS-systeem geen meetbaar effect [1].
Huidige Uitdagingen en Zorgen
Professor Marc Schuilenburg van de Erasmus School of Law waarschuwt voor de ondoorzichtigheid van moderne AI-systemen: ‘Traditionele risicobeoordelingsinstrumenten zijn nog enigszins beheersbaar, maar AI-modellen zijn zelflerende, dynamische en ondoorzichtige systemen’ [1]. In het Verenigd Koninkrijk loopt sinds vorige woensdag een pilot waarbij persoonlijke data, inclusief geestelijke gezondheidsgegevens, worden gebruikt om gewelddadige misdaad te voorspellen [1].
Praktische Beperkingen
De praktische uitvoerbaarheid blijft een significant struikelblok. Schuilenburg illustreert dit met een concreet voorbeeld: ‘Steden zoals Rotterdam zouden 60 mensen als potentiële risico’s kunnen identificeren, maar wat dan? Is het haalbaar om 60 agenten bij hen te plaatsen?’ [1]. Deze realiteit onderstreept dat technologie alleen effectief kan zijn wanneer de organisatie erop is ingericht [1].
Toekomstige Ontwikkelingen
Er wordt momenteel in Europees verband gewerkt aan nieuwe AI-tools die zich richten op het versterken van de verbinding tussen politie en samenleving [1]. Volgende week woensdag volgt een tweede deel in deze serie, waarin dieper wordt ingegaan op de positieve bijdragen die AI kan leveren aan politiewerk [1].