Deze blog is een reactie op De Volkskrant, 9 april 2025, “Is met AI te voorspellen wie een moord gaat plegen?”
Begin deze maand berichtte de Volkskrant dat de Britse overheid werkt aan een systeem om met behulp van AI geweldsmisdrijven te voorspellen, oorspronkelijk onder de naam “homicide prediction project”. Het systeem zou gevoed worden met de persoonlijke gegevens van bekenden van de politie – inclusief slachtoffers en mensen die nooit veroordeeld zijn (volgens de actiegroep Statewatch).
Dit is een zorgelijke ontwikkeling, vooral omdat de EU onlangs in de nieuwe AI Verordening dit soort “predictive policing” op basis van persoonlijke gegevens expliciet heeft verboden.
Het probleem met het toepassen van AI voor dit soort profilering is dat telkens weer blijkt dat AI systemen slecht presteren en bovendien leiden tot discriminatie, omdat ze met historische gegevens gevoed worden die onvermijdelijk “bias” (vooringenomenheid) vertonen. Een beroemd voorbeeld is het Amerikaanse COMPAS systeem voor het inschatten van recidive-risico, dat systematisch witte verdachten een veel lager risico toekent dan verdachten van kleur.
Deze verhalen over falende AI-projecten, die bovendien in verband gebracht worden met het schenden van grondrechten, doen natuurlijk al veel langer de ronde. Wij merken als AI consultants dat organisaties daardoor onzeker worden bij de besluitvorming over de toepassing van AI. Steeds meer organisaties voeren daarom “Responsible AI” beleid in. Dit zijn risico-management raamwerken die helpen om die onzekerheid weg te nemen. Wij zien dat organisaties die dit soort raamwerken hanteren besluitvaardiger zijn met AI-innovaties. Een goed doordacht Responsible AI beleid is daarom niet innovatieremmend zoals sommigen beweren, maar juist versnellend door het vertrouwen dat het inboezemt.
Gelukkig wordt in het Verenigd Koninkrijk ook gewerkt aan AI wetgeving. Je mag hopen dat dit gaat helpen om de ethische en maatschappelijke risico’s van toepassing van AI bij de Britse politie te mitigeren, te meer daar eerdere toepassingen van AI daar al behoorlijk in opspraak zijn gekomen (zie de documentaire “Coded bias” op Netflix).