Mensen hebben recht op betekenisvolle menselijke tussenkomst bij algoritmische besluitvorming – dat klinkt redelijk, maar wat betekent het in de drukke (decentrale) overheidspraktijk? Onlangs vroeg de Autoriteit Persoonsgegevens (AP) belanghebbenden en geïnteresseerden om daarover mee te denken via een publieke consultatie.
Toezichthouder biedt hulpmiddel 'menselijke tussenkomst'
Een publicatie van de AP helpt bij het inrichten van een proces voor menselijke tussenkomst bij algoritmische besluitvorming.

Handvatten voor organisaties
Die input is geanonimiseerd verwerkt in de publicatie handvatten voor betekenisvolle menselijke tussenkomst bij algoritmische besluitvorming. Er is ook een samenvatting gemaakt van de reacties op de consultatie.
De Algemene verordening gegevensbescherming (AVG) bevat regels voor de inzet van algoritmes en AI bij besluitvorming. Je kunt bijvoorbeeld niet zomaar een sollicitatie-app laten besluiten wie er een baan krijgt. Om te garanderen dat een besluit zorgvuldig tot stand komt en om te voorkomen dat er mensen worden uitgesloten of gediscrimineerd door de uitkomst van een algoritme, moet er een mens in the loop zijn. Die menselijke tussenkomst mag zich niet beperken tot een symbolische klik op ‘keur goed’; de mens moet betekenisvol bijdragen aan de besluitvorming.
De menselijke tussenkomst mag zich niet beperken tot een symbolische klik op 'keur goed'.
Hoe doe je dat dan? Dat vragen veel organisaties zich af. Daarom heeft de AP de handvatten ontwikkeld. Het lijvige document helpt organisaties op weg bij de inrichting van het proces van menselijke tussenkomst. In de publicatie staan voorbeelden en vragen over de factoren mens, technologie en ontwerp, proces, en governance.
Routinematigheid
Voorbeeld: Als een onderdeel van je baan bestaat uit het dagelijks beoordelen van besluiten van een algoritme, ligt routinematigheid op de loer. Dit zijn een aantal vragen die een organisatie zich daarom bij de inrichting van een dergelijk proces moet stellen:
Is er in het ontwerp van het algoritme nagedacht over het voorkomen van routinematigheid bij beoordelaars? Hoe wordt de uitkomst voorgelegd?
Zijn er controlevragen?
Worden data of de output in een verschillende volgorde gepresenteerd? Of varieert de volgorde waarop een deelbesluit wordt genomen?
Komen alle resultaten die beoordelaars te zien krijgen uit het algoritme?
Moeten beoordelaars besluiten vaak handmatig maken?
Worden beoordelaars alert gehouden?
Wordt er op fouten gecontroleerd?
Nieuwe vragen
Zijn we er met deze handvatten? Nee, er staan nog wel meer begrippen in de publicatie waar je een lang en filosofisch debat over kunt houden, zoals ‘wanneer is de uitkomst van het proces een besluit?’ Of ‘wanneer treft een besluit iemand ‘in aanmerkelijke mate’? Ook praktisch gezien roept het document nieuwe vragen op, zoals welke informatie een betrokkene over het geautomatiseerde besluit moet krijgen. Met dergelijke vragen gaat de AP dit jaar aan de slag.
Plaats als eerste een reactie
U moet ingelogd zijn om een reactie te kunnen plaatsen.