Advertentie
digitaal / Nieuws

‘Discussie over AI zal in Nederland leiden tot botsingen’

Kunstmatige intelligentie heeft zijn voordelen, maar het zet ook de democratie onder druk. Dat komt ook door hoe overheden het gebruiken. Dr. Linnet Taylor is sinds oktober hoogleraar International Data Governance aan Tilburg University en ze richt zich in haar onderzoek op data, vertegenwoordiging en democratie. Vanuit Europa komt er veel relevante wetgeving aan. ‘In Nederland worden continu de grenzen opgezocht van wat mogelijk is.'

18 oktober 2021
Kunstmatige-intelligentie-technologie-shutterstock-590311676.jpg

Kunstmatige intelligentie heeft zijn voordelen, maar het zet ook de democratie onder druk. Dat komt ook door hoe overheden het gebruiken. Dr. Linnet Taylor is sinds oktober hoogleraar International Data Governance aan Tilburg University en ze richt zich in haar onderzoek op data, vertegenwoordiging en democratie. Vanuit Europa komt er veel relevante wetgeving aan. ‘In Nederland worden continu de grenzen opgezocht van wat mogelijk is.'

Wat valt u op aan hoe Nederlandse overheden data inzetten?

Taylor: ‘Er wordt erg vanuit een organisatorisch standpunt gedacht. De aanname is vaak dat als je privacy en wetmatigheid erbij betrekt, het publieksbelang is geborgd. Maar er kan nog steeds tegenstand komen – als het publiek wordt gevolgd met behulp van camera’s en telefoondata, is het niet voldoende om een bordje op te hangen. Het hebben van privacyfunctionarissen is ook niet voldoende. Er zijn dus gaten in hoe data governance wordt georganiseerd.’

 

‘Er zijn in Nederland twee niveaus waar de publieke waarden bij data governance worden betrokken: aan de top, door het bestuur, en bottom-up. In het midden zit een gat. Wij proberen het niveau daartussen te onderzoeken, het verbindende gebied tussen de ervaringen van inwoners en wat er aan de top bij het bestuur gebeurt.’

 

Een whitepaper waar u aan meewerkte concludeerde dat data governance zich vooral richt op persoonlijke data en dat er weinig bescherming is van het publiek in bredere zin.

‘Dat was aan de hand van een Urban Data Governance Clinic. We vroegen projectmedewerkers van stedelijke technologieprojecten mee te doen aan een workshop van drie dagen en stelden vragen over de technieken, de uitdagingen en mogelijk verzet ertegen. We kwam erachter dat er geen verantwoordingsstructuur was voor de belangen van inwoners.’

 

En jullie onderzoeken bijvoorbeeld activisme?

‘Als een manier om problemen te signaleren. Als we beter naar activisme luisteren kunnen we misschien problemen zoals de toeslagenaffaire voorkomen. In het midden, tussen de top en de ervaringen van inwoners, moet de vertaalslag worden gemaakt. Kunnen inwoners zien wat daar gebeurt? Want veel wordt daar onzichtbaar.’

 

‘Zo onderzoeken we ook technologie. Door te kijken naar de alledaagse ervaringen.’

 

Kwam dat ook terug in het recente werk over de coronacrisis waar u aan bijdroeg?

‘Het is interessant. Dingen worden ongrijpbaar door technologie. Dat geldt zeker voor pandemietechnologieën: het maakt dingen onzichtbaar. Het neemt die ruimte in tussen overheid en inwoners. We zien verzet tegen apps, monitoring en vaccins. Mensen verzetten zich niet per se tegen de technologie, maar zetten vraagtekens bij wat voor soort vrijheid het oplevert. Zo ontstaat het risico dat mensen afhaken vanwege dingen die niet goed worden begrepen.’

 

Er komt een hoop Europese wetgeving aan op digitaal gebied.

‘Ja. E-commerce, de wet voor digitale markten, de Data Governance Act, de Artifical Intelligence Act… Die laatste hoort bij de GDPR, in Nederland is vertaald als de AVG, maar de AVG gaat vooral over de data zelf. Niet over hoe het wordt gebruikt met AI. Die laag, de gebruikslaag, is heel belangrijk. Die gaat bijvoorbeeld over gezichtsherkenning in de openbare ruimte.’

 

‘Er komen drie categorieën: verboden AI, hoge-risico-AI en andere vormen. Verdeeld op basis van risico, dus organisaties moeten dat evalueren. De GDPR/AVG gaf duidelijke testmethoden voor data, hopelijk komen die er ook voor AI. Er worden in ieder geval criteria gegeven die de technologieën in een bepaalde categorie plaatsen. Kwetsbare mensen uitbuiten mag bijvoorbeeld niet. En scores geven ook niet.’

 

Zoals China’s systeem van sociaal krediet?

‘Een hoop Chinese methoden waar we ons zorgen over maken, gebeuren al in de EU en in de VS. In China worden ze samengevoegd. Kredietscores zijn er altijd al geweest, maar er het mag hier niet gebruikt worden om goede van slechte burgers te onderscheiden, bijvoorbeeld door te bepalen wie waar mag wonen. Zo probeert de EU Amerikaanse situatie met kredietscores te vermijden. Ik zeg niet dat de situatie in de EU beter is, maar er wordt geprobeerd de problemen in de rest van de wereld te voorkomen.’

 

Vorige week uitte het Europees Parlement zorgen over de inzet van biometrische gegevens en benadrukte het dat er een verbod moet komen op automatische gezichtsherkenning in de openbare ruimte. Hoe urgent is het probleem?

‘Nederland is heel innovatievriendelijk - continu worden de grenzen opgezocht van wat mogelijk is. Daarom wordt Nederland een gebied waar duidelijke botsingen komen tussen de wet en de publieke en private sectoren die verder willen. De EU reguleert, maar voordat dat nationale wetgeving wordt, moet er in alle landen nog debat plaatsvinden. Het zal interessant worden. Wij proberen bij te dragen door te kijken naar wat technologie wel en niet zou moeten doen.’

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie