Advertentie
digitaal / Nieuws

Rathenau Instituut geeft advies voor meer grip op algoritmes

Het Rathenau Instituut geeft Kamerleden handvatten voor beter toezicht op het gebruik van algoritmes door overheidsorganisaties.

13 februari 2023
Vrouw algoritme
Shutterstock

Op woensdag 15 februari spreekt de Tweede Kamercommissie Digitale Zaken over de inzet van algoritmes en data-ethiek binnen de rijksoverheid. In de aanloop hiervan geeft het Rathenau Instituut drie adviezen waarmee Kamerleden beter kunnen toezien op het gebruik van algoritmes door overheden.

Teamleider Ruimtelijke Ontwikkeling

Gemeente Best
Teamleider Ruimtelijke Ontwikkeling

Kwaliteitsmedewerker

JS Consultancy
Kwaliteitsmedewerker

De rijksoverheid neemt al veel maatregelen om de risico’s van algoritmes te beperken. Zo zijn de Code Goed Digitaal Openbaar Bestuur, de Handreiking non-discriminatie by design en de Impact Assesment Mensenrechten en Algoritmes ontwikkeld. Ook is er een nationaal algoritmeregister gestart en werkt het kabinet aan een implementatiekader. Maar sommige onderwerpen zijn niet volledig met deze maatregelen, met name als het gaat om non-discriminatie, privacy en veiligheid, stelt het Rathenau Instituut.

Handvatten toezicht

Daarom geeft het drie handvatten voor het parlement om beter op deze zaken toe te zien: 
1. 
Waarborg de informatievoorziening aan het parlement
2. Versterk de juridische waarborgen ten aanzien van non-discriminatie
3. Verhelder de juridische eisen ten aanzien van het motiveringsbeginsel

Informatievoorziening waarborgen

Het verplicht stellen van impact assessments zoals het IAMA is niet genoeg; ze moeten ook openbaar toegankelijk zijn. Zo krijgt het parlement inzicht in de moeilijke afwegingen die overheidsorganisaties maken. Daarnaast adviseert het Rathenau Instituut om een complete proportionaliteitsafweging in het assessment op te nemen. Alleen zo kan het parlement per geval beoordelen of de risico’s in evenwicht zijn met de opbrengst van de inzet van algoritmes. Misschien zijn er alternatieven die hetzelfde resultaat opleveren, maar niet dezelfde risico’s?

Waarborgen non-discriminatie

Bewijs maar eens dat je door een algoritme bent gediscrimineerd. Dat valt niet mee. Er is al een motie aangenomen om te verplichten of een overheidsbesluit mede is gebaseerd op een algoritme of risicoprofilering. Maar er zijn meer opties die het makkelijker maken om discriminatie aan te tonen, zoals het deels omdraaien van de bewijslast. Daarnaast kan het nodig zijn om meer beschermde gronden in de wet op te nemen, zodat burger niet onverhoeds worden gediscrimineerd door lerende algoritmes die hun eigen sorteerregels ontwikkelen.

Juridische eisen

De overheid zet lerende algoritmes vooral in als ‘beleidsondersteuning’, niet als beslissers. Maar daarmee weet een burger nog niet hoe het systeem werkt of waarom hij werd geselecteerd. Meer uitleg over het algoritme en motivering over concrete besluiten draagt hieraan bij.
Lerende algoritmes die zonder toezicht hun gang gaan, zijn moeilijk te verenigen met het motiveringsbeginsel. Om die reden zien veel overheidsorganisaties er van af om ze in te zetten, zelfs als deze systemen voor betere resultaten zorgen. Ontwikkelaars bij deze organisaties experimenteren echter wel met deze technieken. Dat kan leiden tot druk om ze toch in te zetten. Het Rathenau Instituut dringt er daarom bij de Tweede Kamer op aan om het kabinet te vragen om heldere normstelling.

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie