Overslaan en naar de inhoud gaan

Toezichthouder biedt hulpmiddel 'menselijke tussenkomst'

Een publicatie van de AP helpt bij het inrichten van een proces voor menselijke tussenkomst bij algoritmische besluitvorming.

Menselijk gezicht op toetsenbord
− Shutterstock

Mensen hebben recht op betekenisvolle menselijke tussenkomst bij algoritmische besluitvorming – dat klinkt redelijk, maar wat betekent het in de drukke (decentrale) overheidspraktijk? Onlangs vroeg de Autoriteit Persoonsgegevens (AP) belanghebbenden en geïnteresseerden om daarover mee te denken via een publieke consultatie.

Handvatten voor organisaties

Die input is geanonimiseerd verwerkt in de publicatie handvatten voor betekenisvolle menselijke tussenkomst bij algoritmische besluitvorming. Er is ook een samenvatting gemaakt van de reacties op de consultatie.

De Algemene verordening gegevensbescherming (AVG) bevat regels voor de inzet van algoritmes en AI bij besluitvorming. Je kunt bijvoorbeeld niet zomaar een sollicitatie-app laten besluiten wie er een baan krijgt. Om te garanderen dat een besluit zorgvuldig tot stand komt en om te voorkomen dat er mensen worden uitgesloten of gediscrimineerd door de uitkomst van een algoritme, moet er een mens in the loop zijn. Die menselijke tussenkomst mag zich niet beperken tot een symbolische klik op ‘keur goed’; de mens moet betekenisvol bijdragen aan de besluitvorming.

De menselijke tussenkomst mag zich niet beperken tot een symbolische klik op 'keur goed'.

Hoe doe je dat dan? Dat vragen veel organisaties zich af. Daarom heeft de AP de handvatten ontwikkeld. Het lijvige document helpt organisaties op weg bij de inrichting van het proces van menselijke tussenkomst. In de publicatie staan voorbeelden en vragen over de factoren mens, technologie en ontwerp, proces, en governance.

Het belangrijkste overheidsnieuws van de dag

Schrijf je in voor de Binnenlands Bestuur nieuwsbrief

Routinematigheid

Voorbeeld: Als een onderdeel van je baan bestaat uit het dagelijks beoordelen van besluiten van een algoritme, ligt routinematigheid op de loer. Dit zijn een aantal vragen die een organisatie zich daarom bij de inrichting van een dergelijk proces moet stellen:

Is er in het ontwerp van het algoritme nagedacht over het voorkomen van routinematigheid bij beoordelaars? Hoe wordt de uitkomst voorgelegd?

Zijn er controlevragen?

Worden data of de output in een verschillende volgorde gepresenteerd? Of varieert de volgorde waarop een deelbesluit wordt genomen?

Komen alle resultaten die beoordelaars te zien krijgen uit het algoritme?

Moeten beoordelaars besluiten vaak handmatig maken?

Worden beoordelaars alert gehouden?

Wordt er op fouten gecontroleerd?

Nieuwe vragen

Zijn we er met deze handvatten? Nee, er staan nog wel meer begrippen in de publicatie waar je een lang en filosofisch debat over kunt houden, zoals ‘wanneer is de uitkomst van het proces een besluit?’ Of ‘wanneer treft een besluit iemand ‘in aanmerkelijke mate’? Ook praktisch gezien roept het document nieuwe vragen op, zoals welke informatie een betrokkene over het geautomatiseerde besluit moet krijgen. Met dergelijke vragen gaat de AP dit jaar aan de slag.

Het belangrijkste overheidsnieuws van de dag

Schrijf je in voor de Binnenlands Bestuur nieuwsbrief

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heeft u al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heeft u al een account? Log in