Advertentie
digitaal / Nieuws

‘Voer mensenrechtentoets uit bij algoritmes’

Breng in kaart welke impact algoritmes hebben op mensenrechten. Het is een van de uitgangspunten van het College voor de Rechten van de Mens in een handreiking voor ambtenaren. Overheden maken steeds meer gebruik van (semi)-automatische besluitvorming en met de handreiking wil het College mensenrechtenschendingen voorkomen.

11 februari 2021
Rechten-shutterstock-1803106816.jpg

Breng in kaart welke impact algoritmes hebben op mensenrechten. Het is een van de uitgangspunten van het College voor de Rechten van de Mens in een handreiking voor ambtenaren. Overheden maken steeds meer gebruik van (semi)-automatische besluitvorming en met de handreiking wil het College mensenrechtenschendingen voorkomen.

Vier stappen

‘Voer een mensenrechtentoets uit bij het ontwerp van algoritmes voor besluitvorming, maar ook bij de aanbesteding en tijdens het gebruik van dergelijke systemen’, schrijft het College in de handreiking. De toets bestaat uit vier stappen: duidelijk maken welke mensenrechten door de inzet van algoritmes worden geraakt, of er een wettelijke grondslag voor is, of een algoritme het noodzakelijke en geschikte middel is en of er andere adequate instrumenten zijn.

 

Knelpunten

Het College ziet knelpunten bij deze besluitvorming omdat het invloed heeft op het beginsel van gelijke proceskansen en op het recht van toegang tot informatie: ‘Hoe achterhaalt een persoon de motivering die ten grondslag lag aan het besluit om geen uitkering toe te kennen als die infor­matie verhuld zit in afgeschermde algoritmes? Heeft iemand dan nog wel een eerlijk proces als het bezwaar onvoldoende toegelicht kan worden?’

 

Spam

Data en algoritmes kunnen fouten en vooroordelen bevatten en in het geval van zelflerende algoritmes zijn de resulterende verbanden moeilijk uit te leggen. Het College geeft als voorbeeld van een zelflerend algoritme het spamfilter van een e-mailprogramma: als een gebruiker een e-mail markeert als ‘spam’ dan dient dat als informatie waarmee het algoritme spam beter leert herkennen. Vorige week bleek uit onderzoek van de NOS dat zeker 25 gemeenten voorspellende systemen en algoritmes gebruiken.

 

Corrigeren

De twee andere uitgangspunten zijn transparantie tegenover burgers en het vergroten van kennis in de organisatie. Transparantie maakt het voor burgers duidelijk hoe de processen bijdragen aan een besluit en zorgt ervoor, als toegankelijke informatie wordt gedeeld, dat zij reële rechtsbescherming krijgen. En de juiste programmeurs, data-analisten en juristen met de juiste kennis kunnen de werking van data en algoritmes begrijpen, een besluit op inhoud beoordelen en onjuiste data corrigeren.

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie