of 63966 LinkedIn

Nieuwe EU-wetten voor ontwikkeling en gebruik AI

Kalliopi Spyridaki Reageer

De commercialisering van kunstmatige intelligentie (AI) en de steeds bredere toepassing van AI-technologieën hebben geleid tot een grotere bewustwording van de ethische implicaties van het gebruik ervan. Overheden, bedrijven en consumenten maken zich momenteel zorgen over de privacy, rechtvaardigheid, transparantie en verantwoordingsplicht van de beslissingen die door AI-toepassingen worden aangestuurd.

Op 21 april komt de Europese Unie (EU) met een voorstel voor de eerste horizontale wetgeving op het gebied van AI wereldwijd, die regels bevat voor de ontwikkeling en het betrouwbaar gebruik van AI met een hoog risico (high risk AI). In het algemeen zal de wetgeving gericht zijn op meer transparantie, verantwoordingsplicht en consumentenbescherming voor alle AI-toepassingen. Dit wordt waarschijnlijk bereikt door organisaties te verplichten zich te houden aan robuuste eisen op het gebied van AI-governance en datakwaliteit.

 

Om de basis te leggen voor betrouwbare AI moeten we robuuste en veilige technologie ontwikkelen, een cultuur van digitaal vertrouwen tot stand brengen die het delen van data stimuleert, en een regelgevingskader ontwerpen dat een verantwoord gebruik ervan bevordert.

 

De recente wereldwijde sociale bewegingen rond diversiteit en inclusie hebben de vraag naar ethiek in alle geledingen van de samenleving versterkt. Tegelijkertijd heeft de pandemie een diepgaande verandering teweeggebracht in onze houding en ons gedrag ten aanzien van de uitwisseling van informatie. Die houding is veel meer open geworden en dit is gunstig voor AI-toepassingen die een naadloze informatiestroom vereisen, waaronder vaak ook persoonsgegevens.

 

Deze ongekende openheid voor het delen van gegevens is een waardevol voorbeeld voor hoe in de toekomst het vertrouwen in oplossingen voor kunstmatige intelligentie kan worden opgebouwd. Vertrouwen is essentieel in de relatie tussen een consument en een organisatie. Als mensen geen vertrouwen hebben in het verantwoord gebruik van hun persoonsgegevens, kunnen zij om die reden het vertrouwen in een merk verliezen. Als blijkt dat er onethische AI-systemen worden ingezet, kan dat de reputatie van een organisatie schaden en het bedrijfsresultaat aanzienlijk beïnvloeden.

 

Een aantal regeringen en organisaties, zoals de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO), heeft een steeds uitgebreidere reeks kaders tot haar beschikking om het ethisch gebruik van data en AI in goede banen te leiden. Deze beginselen zijn bedoeld als informatiebron voor algemeen geldende normen, als leidraad voor de ontwikkeling van regelgeving en als hulpmiddel voor organisaties bij het definiëren en instellen van hun eigen AI-beginselen en operationele grenzen.

 

De Europese Unie zal op 21 april met een wetsvoorstel komen voor het gebruik van Artificial Intelligence. Door de invoering van de wet- en regelgeving wil de EU de belangen van haar ingezetenen beter behartigen én een meer prominente rol gaan innemen in het wereldwijde AI-speelveld. De nieuwe wet zal regels bevatten voor een betrouwbare ontwikkeling en gebruik van AI.

 

Parallel daaraan heeft de EU een voorstel gedaan voor een Data Governance Law en komt dit jaar ook met een voorstel voor een Data Law. Wanneer deze in werking treden, zal dit de uitwisseling van data tussen bedrijven en overheden bevorderen en de innovatie en toepassing van AI-toepassingen door alle sociaal-economische actoren verder stimuleren.

 

Het ethisch gebruik van kunstmatige intelligentie staat centraal in een moderne, vooruitstrevende en maatschappelijk verantwoorde organisatie. Om ethische principes voor AI in de praktijk te brengen, moeten ze toepasbaar en operationeel zijn. Dit is een uitdaging voor zowel overheden als organisaties. Het is daarom tijd om de eerste noodzakelijke stappen te zetten voor het verantwoord gebruik van AI. Organisaties zullen een kader moeten creëren dat transparantie en verantwoordingsplicht mogelijk maakt. Te beginnen met datakwaliteit en robuust gegevensbeheer en het waarborgen van de kwaliteit van modellen en governance.

 

Gezien de snelle en verwachte ontwikkelingen op het gebied van regelgeving in Europa zullen alle organisaties die actief zijn op de AI-markt moeten blijven innoveren en producten en diensten ontwikkelen die hen een concurrentievoordeel opleveren met het oog op de groeiende vraag naar ethische en verantwoorde AI.

 

Kalliopi Spyridaki, Chief Privacy Strategist bij SAS Europe & Asia Pacific

Verstuur dit artikel naar Google+

Reageer op dit artikel
















Even geduld a.u.b.