Bijna een derde van de bedrijven werkt privacytraining voor werknemers onvoldoende bij, waardoor werknemers niet adequaat voorbereid zijn op nieuwe privacy- en cyberdreigingen. Dat blijkt uit onderzoek van ISACA.
Bijna een derde van de bedrijven actualiseert de privacytraining voor werknemers onvoldoende. Dat blijkt uit het State of Privacy 2025-rapport van ISACA, dat de bevindingen in de schijnwerpers zet naar aanleiding van de Safer Internet Day. Hoewel 87 procent van de organisaties privacytraining aanbiedt, werkt slechts 68 procent de inhoud regelmatig bij.
De bevindingen van ISACA tonen aan dat veel bedrijven privacytraining wel aanbieden, maar deze niet consistent actualiseren. Slechts 59 procent van de organisaties doet dit jaarlijks, terwijl negen procent de training slechts eens in de twee tot vijf jaar bijwerkt. Hierdoor krijgt een aanzienlijk deel van de werknemers geen up-to-date kennis over nieuwe privacybedreigingen, meent de organisatie.
Deze lacune is volgens ISACA problematisch, dat daarvoor verwijst naar cijfers van de Wereldbank die aantonen dat cyberincidenten jaarlijks met gemiddeld 21 procent toenemen gekeken over het laatste decennium. Cybersecurity en privacy zijn daarom niet langer louter technische kwesties, maar strategische uitdagingen die digitale vertrouwensrelaties beïnvloeden. Regelmatige training speelt een belangrijke rol bij risicobeheersing en gegevensbescherming.
AI en IoT vergroten uitdagingen
Naast de noodzaak van betere training, wijst het rapport op de opkomst van nieuwe technologieën zoals kunstmatige intelligentie (AI) en het Internet of Things (IoT). Deze technologieën vergroten de kwetsbaarheid van organisaties, waardoor zowel werknemers als bedrijfsleiders voorbereid moeten zijn op potentiële incidenten.
AI speelt bovendien een groeiende rol in privacybeheer. Momenteel gebruikt elf procent van de bedrijven AI om privacygerelateerde taken te automatiseren, zoals risicobeoordelingen en nalevingscontroles. Hoewel deze technologie operationele efficiëntie kan verbeteren, brengt ze ook risico’s met zich mee. Een gebrek aan transparantie in AI-algoritmes kan het vertrouwen schaden en leiden tot schendingen van privacywetgeving, zoals de recent ingevoerde EU AI Act.
Eerder schreven we al op basis van cijfers van ISACA dat privacyteams ondanks de groeiende risico’s krimpen. Ook dat vergroot de risico’s.