We vertrouwen AI sneller dan onze collega’s

We vertrouwen op AI

Steeds meer organisaties gebruiken AI-tools zoals ChatGPT of Copilot. Soms officieel maar vaak ook gewoon omdat medewerkers het handig vinden. Even snel een tekst herschrijven. Notulen samenvatten. Een Excelbestand analyseren. Dat lijkt onschuldig. Maar juist daar ontstaan nieuwe privacyrisico’s. Want veel medewerkers staan er niet bij stil dat ze ondertussen persoonsgegevens invoeren in een extern systeem.

AI voelt niet als “echte software”

Dat klinkt misschien vreemd, maar dat is precies het probleem. Bij een CRM-systeem of boekhoudpakket denken organisaties meestal nog na over privacy en beveiliging. Maar AI-tools voelen voor veel mensen meer als een slimme assistent dan als software van een externe partij. Daardoor verdwijnen grenzen sneller.

Even een ledenlijst uploaden om een analyse te maken. Een sollicitatiebrief laten beoordelen. Notulen laten samenvatten waar namen en persoonlijke situaties in staan. Het gebeurt inmiddels overal. Niet omdat medewerkers roekeloos zijn, maar omdat AI-tools heel normaal zijn geworden in het dagelijkse werk.

Het grootste risico zit vaak in gemak

Veel organisaties denken bij privacyrisico’s nog steeds aan hackers of phishingmails. Maar in de praktijk ontstaat een groot deel van de nieuwe risico’s juist intern. Gewoon doordat medewerkers efficiënter willen werken.

En ondertussen weet lang niet iedere organisatie:

  • welke AI-tools medewerkers gebruiken
  • welke gegevens daarin terechtkomen
  • of gegevens worden opgeslagen
  • of data gebruikt wordt om AI-modellen te trainen

Vooral gratis AI-tools zorgen hier regelmatig voor problemen.

De AP kijkt hier steeds serieuzer naar

De Autoriteit Persoonsgegevens begrijpt ook dat AI niet meer weggaat. Het gaat dus niet om een verbod op AI-gebruik. Maar organisaties moeten wél kunnen uitleggen wat er gebeurt met persoonsgegevens. Kun je uitleggen:

  • welke AI-tools binnen de organisatie gebruikt worden?
  • welke gegevens medewerkers mogen invoeren?
  • of AI-gebruik is opgenomen in het verwerkingsregister?
  • en welke afspraken hierover zijn gemaakt?

Bij veel organisaties is dit nog helemaal niet geregeld.

Een simpele vuistregel helpt vaak al

Twijfel je of iets in een AI-tool mag? Gebruik dan dezelfde regel als bij een externe partij: zou je deze informatie ook zomaar mailen naar een onbekend bedrijf? Is het antwoord nee, dan hoort die informatie meestal ook niet thuis in een publieke AI-tool. Juist daarom wordt AI-beleid in 2026 voor veel organisaties net zo belangrijk als wachtwoorden en tweestapsverificatie.

Probeer AVG-support.nl 30 dagen gratis

Wil je eenvoudig voldoen aan de AVG regels? AVG-support.nl helpt je te doen wat nodig is.

  • toets je organisatie en neem noodzakelijke maatregelen
  • maak gebruik van alle juridische documenten
  • behaal het AVG OK-vignet en laat zien dat je privacy serieus neemt

Ontdek zelf hoe het werkt. Maak een gratis proefaccount aan.

Meer nieuws

We vertrouwen AI sneller dan onze collega’s

AI-tools zoals ChatGPT en Copilot worden steeds normaler op de werkvloer. Daardoor delen medewerkers ongemerkt persoonsgegevens in externe systemen, vaak zonder duidelijke afspraken of beleid vanuit de organisatie. Lees meer

Persoonsgegevens zijn het nieuwe goud voor hackers

De recordboete voor Yango en de recente datalekken bij Canvas, Barneveld en Basic-Fit laten zien hoe waardevol persoonsgegevens zijn geworden. Privacy draait in 2026 steeds meer om digitale weerbaarheid, leverancierscontrole en snelle incidentrespons. Lees meer

Kun jij deze privacyvragen in 30 minuten beantwoorden?

Veel organisaties hebben hun AVG-documenten wel geregeld, maar missen overzicht in de praktijk. De AP focust in 2026 vooral op digitale weerbaarheid, AI-gebruik, bewaartermijnen en snelle opvolging van datalekken. Lees meer