Overslaan en naar de inhoud gaan

‘AI-gebruik leidt tot meer datalekken’

Het gebruik van AI-chatbots op de werkvloer leidt tot een groeiend aantal datalekken. Daarvoor waarschuwt de Autoriteit Persoonsgegevens.

Telefoon met chatgpt
- Shutterstock

De Autoriteit Persoonsgegevens (AP) ontving dit jaar al tientallen meldingen van
incidenten waarbij gevoelige informatie via publieke AI-tools werd gedeeld, meldt het Financieel Dagblad. Een recent datalek bij de gemeente Eindhoven onderstreept volgens de privacytoezichthouder de risico’s van het ondoordacht gebruik van gratis chatbots zoals ChatGPT, Claude en Gemini.

Vertrouwelijke documenten

Aanleiding voor de waarschuwing is het incident bij de gemeente Eindhoven, dat op 18 december openbaar werd gemaakt. Medewerkers bleken persoonlijke gegevens van inwoners en collega’s te hebben ingevoerd in openbare AI-websites. Het ging onder meer om vertrouwelijke documenten zoals cv’s, documenten uit de jeugdzorg en interne verslagen. De gegevens kwamen aan het licht na een interne steekproef van dertig dagen, uitgevoerd over de periode van 23 september tot 23 oktober.

Vervelende situatie

De gemeente meldde het datalek op 23 oktober bij de AP. Hoeveel bestanden precies zijn gedeeld, is niet vast te stellen. De gebruikte AI-platforms bewaren ingevoerde gegevens maximaal dertig dagen. Daardoor kan Eindhoven betrokkenen ook niet individueel informeren. Het college van burgemeester en wethouders en de directieraad spreken van een ‘vervelende’ situatie voor inwoners en medewerkers en zeggen geschrokken te zijn van de uitkomsten.

Experimenteren

Naar aanleiding van het lek schakelde de gemeente juridisch adviesbureau Hooghiemstra & Partners in, dat het geschetste beeld bevestigde. Om herhaling te voorkomen zijn openbare AI-websites, waaronder ChatGPT, direct geblokkeerd bij de gemeente Eindhoven. Sindsdien kunnen medewerkers uitsluitend gebruikmaken van Copilot binnen de beveiligde gemeentelijke omgeving. Ook is OpenAI gevraagd om de vanuit Eindhoven geüploade bestanden te verwijderen en is het toezicht op dataverkeer naar externe websites aangescherpt.

Het belangrijkste overheidsnieuws van de dag

Schrijf je in voor de Binnenlands Bestuur nieuwsbrief

Volgens de AP ontstaan dit soort lekken vaak doordat medewerkers op eigen initiatief experimenteren met gratis AI-tools. Die slaan ingevoerde gegevens op, terwijl onduidelijk is wat aanbieders daar vervolgens mee doen. In sommige gevallen worden de gegevens gebruikt om AI-modellen verder te trainen, met het risico dat persoonlijke informatie indirect terugkomt in gegenereerde antwoorden.

Heldere afspraken

De AP adviseert organisaties om heldere afspraken te maken over welke gegevens wel en niet in AI-systemen mogen worden ingevoerd. Volgens experts is het risico dat individuele gegevens opnieuw zichtbaar worden via AI beperkt, maar niet volledig uit te sluiten. Dat maakt waakzaamheid noodzakelijk.

Het belangrijkste overheidsnieuws van de dag

Schrijf je in voor de Binnenlands Bestuur nieuwsbrief

Copilot en ChatGPT in de publieke sector

Copilot en ChatGPT in de publieke sector

Voorkom datalekken door AI-tools verantwoord en veilig in te zetten binnen de publieke sector.

schrijf u vandaag nog in

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heeft u al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heeft u al een account? Log in