Advertentie
digitaal / Nieuws

Burger onvoldoende centraal bij algoritmes

Niet de burger maar de overheid staat centraal bij algoritmes, concludeert de Algemene Rekenkamer na onderzoek naar algoritmegebruik bij de rijksoverheid. ‘Er is bij de overheid oog voor de privacy van burgers, maar ethische aspecten krijgen weinig aandacht.’ Wel is het volgens de Rekenkamer zo dat de algoritmes die de rijksoverheid gebruikt geen ‘black box’ zijn.

26 januari 2021
Robothand-shutterstock-463259987.jpg

Niet de burger maar de overheid staat centraal bij algoritmes, concludeert de Algemene Rekenkamer na onderzoek naar algoritmegebruik bij de rijksoverheid. ‘Er is bij de overheid oog voor de privacy van burgers, maar ethische aspecten krijgen weinig aandacht.’ Wel is het volgens de Rekenkamer zo dat de algoritmes die de rijksoverheid gebruikt geen ‘black box’ zijn.

Weinig inzicht

De ambtelijke leiding van ministeries en de Chief Information Officer (CIO) hebben weinig inzicht in de ontwikkeling van algoritmes. ‘Het gevolg is dat de ministers de risico’s en mogelijke (negatieve) impact van algoritmes op dienstverlening door de rijksoverheid niet tijdig kunnen beperken’, schrijft de Rekenkamer. Bovendien is er geen eenduidige terminologie, wat verklaart dat op verschillende manieren invulling wordt gegeven aan de definities, ontwikkeling en risico’s van algoritmes.

 

Controleren

‘Een algoritme is niet risicoloos. Verkeerd gebruik van een dataverzameling kan een

discriminerende werking hebben als deze vooroordelen bevat.’ Algoritmes mogen niet discrimineren, moeten rekening houden met diversiteit en moeten door mensen te controleren zijn. Hierbij verwijst de Rekenkamer naar SyRI, het fraudesysteem van de overheid waarvan de rechter in februari 2020 oordeelde dat het ‘onvoldoende controleerbaar’ was, waarop het gebruik werd stopgezet.

 

Geen black box

Het is volgens de Rekenkamer zo dat de overheid ‘relatief eenvoudige algoritmes’ inzet. Hiermee worden automatische besluiten genomen, vaak het automatiseren van een administratieve handeling zoals het versturen van een brief, waarvan de impact op burgers beperkt is. Bij (complexere) lerende algoritmes zijn altijd burgers betrokken. De algoritmes waren voor de Rekenkamer te bekijken en beoordelen – geen ondoorzichtige black box dus.

 

Toetsing

Onderdeel van het onderzoek was om een toetsingskader te ontwikkelen om de kwaliteit en verantwoorde inzet van algoritmes te toetsen, want dat is er ondanks de grote maatschappelijke aandacht nog niet. En ambtenaren worden steeds vaker ondersteund door de moderne techniek. ‘Met dit toetsingskader kunnen controleurs en auditors in de toekomst algoritmes eenduidig en uniform beoordelen.'

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie