Overslaan en naar de inhoud gaan

'Risicoprofilering mag, onder strikte voorwaarden’

Aanleiding was het controversiële risicomodel dat de gemeente Rotterdam tot 2021 gebruikte.

Algoritmes-shutterstock-650654335.jpg
− Shutterstock

Wanneer een gemeente onderzoekt of bijstandsgerechtigden nog wel recht hebben op een uitkering, wordt er soms gebruikgemaakt van algoritmische profilering. Dat mag onder strikte voorwaarden, zo oordeelt een onafhankelijke commissie. Maar postcode, het aantal kinderen en laaggeletterdheid mogen niet meer als kenmerk voor profilering worden gebruikt.

Eerder is gebleken dat profilering in de context van de bijstand kan leiden tot discriminatie. Denk aan het controversiële risicomodel dat de gemeente Rotterdam tot 2021 gebruikte. Om oneerlijke behandeling bij bijstandsheronderzoek te voorkomen stelde Stichting Algorithm Audit een onafhankelijke adviescommissie samen.

Verdenking of dienstverlening

Die commissie oordeelt dat algoritmische risicoprofilering onder strikte voorwaarden kan worden ingezet. Hierbij is het doel ‘een leidende factor’. Indien het bijstandsheronderzoek minder op basis van verdenking en meer op basis van dienstverlening wordt ingevuld, laat de commissie meer ruimte voor het gebruik van profileringsvariabelen. Dit om hulpbehoevende groepen gericht van dienst te kunnen zijn.

No show

De commissie heeft gekeken naar de verschillende variabelen die de gemeente Rotterdam gebruikte en licht toe waarom deze variabelen wel of niet wenselijk zijn om als selectiecriterium voor profilering te gebruiken. Zo zijn een no show bij afspraken met de gemeente, reminders voor het aanleveren van informatie, participatie in een traject naar werk (training, werkplaats, maatschappelijke taak) en type woonvorm (met huisgenoot, met partner) variabelen die gemeenten wél mogen gebruiken. Volgens de experts zijn de risico’s ‘beheersbaar’ en houden de variabelen verband met het bijstandsonderzoek.

Discriminerende beslissing

Dit in tegenstelling tot de wijk waar iemand woont of het feit dat de inwoner laaggeletterd is. Hiermee riskeert een gemeente ‘proxydiscriminatie’. Zelfs als bepaalde kenmerken niet worden meegenomen door een model, kan het zijn dat het algoritme op basis van andere kenmerken – bijvoorbeeld een postcode in een kwetsbare buurt – toch een discriminerende beslissing neemt. Deze vorm discriminatie is heel gevaarlijk, omdat het niet transparant is en er een nieuwe bias in het model wordt aangebracht.

Wettelijk verboden

Ook het meenemen van persoonlijke eigenschappen, zoals ‘assertiviteit’ of ‘verzorgdheid’, acht de commissie onwenselijk. Deze kenmerken zijn ‘lastig te kwantificeren’ en ‘subjectief’. Iemands geslacht of gender, het feit dat de bijstandsgerechtigde een psycholoog bezoekt of is gediagnosticeerd met ADHD zouden überhaupt niet meegenomen moeten worden. In de meeste gevallen is dat wettelijk verboden.    

Het belangrijkste overheidsnieuws van de dag

Schrijf je in voor de Binnenlands Bestuur nieuwsbrief

Reacties: 1

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Nico Bos

Wat je ook als algoritme kiest, de uitkomst mag nooit zonder bewijslast tegen burgers worden gebruikt, en dat is precies waar de belastingdienst volledig faalde. De fraudeurs hebben hierdoor weer meer ruimte gekregen vanwege een politieke overreactie op de inzet en misbruik van profilering.

Op 1 december 2023, 20:05

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heeft u al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heeft u al een account? Log in