of 59345 LinkedIn

'Bias grote bedreiging voor commercieel succes AI'

Gekleurde data, modellen die discriminatie in de hand werken - kortom bias - bestaan al zo lang als statistieken worden gebruikt in de besluitvorming. Het probleem zit in het feit dat kunstmatige intelligentie - met name machine learning - een black box is waardoor ongewenste resultaten onverwacht tevoorschijn komen en een toets op representativiteit van de data ontbreekt. Dit meldt AG Connect.

Gekleurde data, modellen die discriminatie in de hand werken - kortom bias - bestaan al zo lang als statistieken worden gebruikt in de besluitvorming. Het probleem zit in het feit dat kunstmatige intelligentie - met name machine learning - een black box is waardoor ongewenste resultaten onverwacht tevoorschijn komen en een toets op representativiteit van de data ontbreekt. Dit meldt AG Connect.

De bias-problematiek is een topprioriteit bij de grote leveranciers maar ook bij afnemers van technologie zoals gemeenten en koepelorganisaties als de Gezondheidsraad en het Verbond van Verzekeraars, stelt Reinoud Kaasschieter, AI-expert bij Capgemini. ‘Iedereen ziet dat er grote voordelen zijn te behalen met de inzet van kunstmatige intelligentie. Maar elke misser komt breed in de publiciteit en vormt de publieke opinie. Deze organisaties vrezen voor een nieuwe AI-winter.’

Steekproef
Het probleem is - zo legt hij uit - dat je in de klassieke statistiek een steekproef neemt en vervolgens controleert of de steekproef representatief is voor de populatie die je wilt onderzoeken. Bij het gebruik van big data verzamel je echter juist zo veel mogelijk gegevens in de hoop dat die een afspiegeling zijn van de populatie. ‘Maar er vindt geen controle op representativiteit plaats.’

Subtiele factoren
Er bestaat wel software waarmee per factor kan worden bekeken wat de invloed is op de uitkomsten van het algoritme. Het probleem is die gereedschappen alleen filteren op bekende factoren, zoals geslacht, etniciteit, religie, afkomst. Subtielere factoren blijven zo echter buiten beeld.

Inzicht
Algoritmen krijgen een steeds belangrijkere rol bij het nemen van beslissingen, ook over individuen. Het probleem is dat de burger geen inzicht heeft in welke algoritmen zijn gebruikt, op welke data die zijn getraind en wat de kwaliteit is van de data waarop het algoritme wordt losgelaten.

Er op los frauderen
Dat gevaar neemt toe naarmate data steeds meer gedeeld worden tussen verschillende instanties, iets wat de overheid nastreeft. Als je in een bepaalde buurt woont, kom je eerder in aanmerking voor onderzoek naar fraude. Dat heeft een versterkend effect omdat er dan natuurlijk meer gevallen gevonden worden in die wijk. Maar mensen in andere wijken die er op los frauderen, komen niet in beeld.

Lees het hele artikel op AG Connect

Verstuur dit artikel naar Google+

Reageer op dit artikel
















Even geduld a.u.b.