Advertentie
digitaal / Nieuws

'Risicoprofilering mag, onder strikte voorwaarden’

Aanleiding was het controversiële risicomodel dat de gemeente Rotterdam tot 2021 gebruikte.

30 november 2023
Algoritmes-shutterstock-650654335.jpg

Wanneer een gemeente onderzoekt of bijstandsgerechtigden nog wel recht hebben op een uitkering, wordt er soms gebruikgemaakt van algoritmische profilering. Dat mag onder strikte voorwaarden, zo oordeelt een onafhankelijke commissie. Maar postcode, het aantal kinderen en laaggeletterdheid mogen niet meer als kenmerk voor profilering worden gebruikt.

Beleidsadviseur Sociaal Domein

Latentis in opdracht van Provalu
Beleidsadviseur Sociaal Domein

Financieel Teamleider

Latentis in opdracht van Provalu
Financieel Teamleider

Eerder is gebleken dat profilering in de context van de bijstand kan leiden tot discriminatie. Denk aan het controversiële risicomodel dat de gemeente Rotterdam tot 2021 gebruikte. Om oneerlijke behandeling bij bijstandsheronderzoek te voorkomen stelde Stichting Algorithm Audit een onafhankelijke adviescommissie samen.

Verdenking of dienstverlening

Die commissie oordeelt dat algoritmische risicoprofilering onder strikte voorwaarden kan worden ingezet. Hierbij is het doel ‘een leidende factor’. Indien het bijstandsheronderzoek minder op basis van verdenking en meer op basis van dienstverlening wordt ingevuld, laat de commissie meer ruimte voor het gebruik van profileringsvariabelen. Dit om hulpbehoevende groepen gericht van dienst te kunnen zijn.

No show

De commissie heeft gekeken naar de verschillende variabelen die de gemeente Rotterdam gebruikte en licht toe waarom deze variabelen wel of niet wenselijk zijn om als selectiecriterium voor profilering te gebruiken. Zo zijn een no show bij afspraken met de gemeente, reminders voor het aanleveren van informatie, participatie in een traject naar werk (training, werkplaats, maatschappelijke taak) en type woonvorm (met huisgenoot, met partner) variabelen die gemeenten wél mogen gebruiken. Volgens de experts zijn de risico’s ‘beheersbaar’ en houden de variabelen verband met het bijstandsonderzoek.

Discriminerende beslissing

Dit in tegenstelling tot de wijk waar iemand woont of het feit dat de inwoner laaggeletterd is. Hiermee riskeert een gemeente ‘proxydiscriminatie’. Zelfs als bepaalde kenmerken niet worden meegenomen door een model, kan het zijn dat het algoritme op basis van andere kenmerken – bijvoorbeeld een postcode in een kwetsbare buurt – toch een discriminerende beslissing neemt. Deze vorm discriminatie is heel gevaarlijk, omdat het niet transparant is en er een nieuwe bias in het model wordt aangebracht.

Wettelijk verboden

Ook het meenemen van persoonlijke eigenschappen, zoals ‘assertiviteit’ of ‘verzorgdheid’, acht de commissie onwenselijk. Deze kenmerken zijn ‘lastig te kwantificeren’ en ‘subjectief’. Iemands geslacht of gender, het feit dat de bijstandsgerechtigde een psycholoog bezoekt of is gediagnosticeerd met ADHD zouden überhaupt niet meegenomen moeten worden. In de meeste gevallen is dat wettelijk verboden.    

Reacties: 1

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Nico Bos
Wat je ook als algoritme kiest, de uitkomst mag nooit zonder bewijslast tegen burgers worden gebruikt, en dat is precies waar de belastingdienst volledig faalde. De fraudeurs hebben hierdoor weer meer ruimte gekregen vanwege een politieke overreactie op de inzet en misbruik van profilering.
Advertentie