In de afgelopen periode behandelde ik in korte tijd twee dossiers waarin AI waarschijnlijk een rol heeft gespeeld. In beide gevallen ging het om een serieuze kwestie: een klokkenluidersmelding en een melding over grensoverschrijdend gedrag. In de ene kwestie stond ik de werkgever bij. In de andere kwestie de beklaagde.
AI in de integriteitspraktijk
Uiteindelijk gaat elke melding over echte mensen. Het is aan ons allemaal om door AI-ruis heen te luisteren en daar zo nodig op te acteren.
Voor de goede orde: ik stond dus niet de melders bij die vermoedelijk AI hadden gebruikt. De door hen gebruikte bewoordingen deden de wenkbrauwen fronsen: juridisch klinkende zinnen zonder juridische inhoud en het gebruik van superlatieven zonder echte voorbeelden.
De vraag waar ik in beide gevallen voor stond was: nemen we dit serieus? En zo ja, hoe gaan we hierop reageren? Hoe ga je om met een melding die vermoedelijk via AI is gegenereerd? Leidt het gebruik van AI tot minder geloofwaardigheid? Of moet je juist oppassen om het te snel weg te zetten? Ook een melding die slecht is opgeschreven – of juist te goed, het is maar hoe je het bekijkt... – kan namelijk wel een reëel probleem beschrijven.
Voor mij als advocaat gold al dat reageren op een stuk dat niet door een ter zake kundige persoon is geschreven, vaak lastiger is dan reageren op een stuk dat wel door een professional is geschreven. In dat laatste geval zijn stukken logisch opgebouwd en bevatten deze herkenbare argumenten. AI-teksten hebben een bijkomende uitdaging: ze hebben een schijn van professionaliteit, maar missen vaak de kern. Ze blinken vaak uit in vaagheid en zijn qua boodschap soms ‘hol’. Je kunt dus moeilijk bepalen waar je moet beginnen met ontleden en reageren.
Overigens blijkt uit een zeer recente uitspraak dat ook professionals de AI-plank kunnen misslaan. Op 6 november 2025 oordeelde de rechtbank Gelderland: ‘De gemachtigde van eiser heeft een dag voor de zitting in zijn aanvullende beroepsgronden (…) verwezen naar een reeks van (vermeende) uitspraken van de Centrale Raad van Beroep, met vermelding van een (vermeend) ECLI-nummer. (…) De rechtbank heeft twee van de aangehaalde uitspraken kunnen vinden. De overige uitspraken bestaan niet of de combinatie van datum en ECLI-nummer komt niet overeen. De gemachtigde kon dit ter zitting niet verduidelijken. De rechtbank kan zich dan ook niet aan de indruk onttrekken dat gebruik is gemaakt van ChatGPT of een andere AI-tool. (…) Daarom passeert de rechtbank dit beroep.’
Beoordeel een integriteitsmelding altijd op de inhoud, niet op de schrijfstijl
Waar een rechter argumenten terzijde kan schuiven, kunnen werkgevers/beklaagden dat niet zomaar. Je zult een melding serieus moeten nemen, hoe slecht de tekst ook is geschreven. Tegelijkertijd moet je ook serieus blijven kijken naar de kwaliteit van het stuk en de feiten die wel of niet worden aangedragen.
We staan aan het begin van het gebruik van AI in de integriteitspraktijk. Een paar principes hoe hiermee om te gaan:
- Beoordeel een integriteitsmelding altijd op de inhoud, niet op de schrijfstijl. Neem dus iedere melding serieus en lees: wat staat hier nu?;
- Wees nieuwsgierig en vraag altijd om een feitelijke toelichting;
- Vraag ook of de melding met behulp van AI is geschreven. AI kan immers een heel goed hulpmiddel zijn voor mensen om hun verhaal op papier te zetten;
- Controleer de feiten op juistheid en valideer dus de melding. Wat is waar, wanneer en in aanwezigheid van wie gebeurd?;
- Waak voor een overreactie. Een overreactie door de melding té serieus te nemen doordat het er nu eenmaal zo professioneel uitziet of een overreactie door de melding helemaal niet serieus te nemen (‘overduidelijk met AI geschreven’).
AI verandert de integriteitspraktijk sneller dan wij dit kunnen bijhouden. Maar uiteindelijk gaat elke melding over echte mensen. Het is dus aan ons allemaal om door de AI-ruis heen te luisteren en daar zo nodig op te acteren.

Plaats als eerste een reactie
U moet ingelogd zijn om een reactie te kunnen plaatsen.