Organisaties negeren AI-risico’s door snelle inzet zonder governance

Organisaties negeren AI-risico’s door snelle inzet zonder governance

Bedrijven zetten AI sneller in dan ze de risico’s kunnen beheersen, blijkt uit nieuw onderzoek van TrendAI. Twee derde voelt druk om AI goed te keuren, ondanks ‘extreme’ beveiligingszorgen die worden genegeerd om de concurrentie voor te blijven.

De race om AI in te zetten overschaduwt de noodzaak aan degelijke governance. Uit een wereldwijd onderzoek door TrendAI, in een vorig leven bekend als Trend Micro, onder drieduizend IT-beslissingsnemers blijkt dat 67 procent onder druk staat om AI-projecten te autoriseren, zelfs wanneer beveiligingsrisico’s als ‘extreem’ worden bestempeld. Slechts één op de zeven noemt die zorgen als doorslaggevend, terwijl de rest ze wegwuift om bij te blijven met de concurrentie of interne vraag te voldoen.

Deze situatie wordt verergerd door inconsistent governance en onduidelijke verantwoordelijkheden voor AI-risico’s. Beveiligingsteams werken vaak reactief, wat leidt tot het gebruik van ongeautoriseerde ‘schaduw AI’-tools. TrendAI waarschuwt dat aanvallers AI al inzetten om cyberaanvallen te versnellen, zoals geautomatiseerde verkenning en phishing, waardoor de drempel voor cybercriminaliteit lager wordt.

AI zonder regels

Organisaties implementeren AI sneller dan ze deze kunnen beveiligen, geeft 57 procent van respondenten toe, terwijl 64 procent slechts matig vertrouwen heeft in hun kennis van de wettelijke kaders rond AI. Slechts 38 procent beschikt over uitgebreide AI-beleidskaders, terwijl 41 procent de onduidelijke regelgeving als belemmering ervaart.

lees ook

Mistral pleit voor ‘contentbelasting’ voor AI-bedrijven: “Europese regels stemmen niemand tevreden”

In de praktijk betekent dit dat AI vaak wordt geoperationaliseerd voordat de regels rond het gebruik ervan volledig zijn vastgelegd. Dit creëert een situatie waarin AI-systemen kritieke bedrijfsprocessen beïnvloeden zonder de nodige controles. Rachel Jin, Chief Platform & Business Officer bij TrendAI, benadrukt dat concurrentiedruk leidt tot implementatie zonder adequate governance, met onvoorspelbare risico’s als gevolg.

Weinig vertrouwen in autonome AI

Ondanks de groeiende adoptie van autonome AI-systemen blijft het vertrouwen hierin beperkt. Slechts 48 procent gelooft dat agentische AI op korte termijn de cyberverdediging zal verbeteren, terwijl er zorgen bestaan over datatoegang, misbruik en gebrek aan toezicht. 44 procent ziet het risico in dat AI-agenten toegang krijgen tot gevoelige gegevens, terwijl 36 procent bang is voor schadelijke prompts die beveiliging kunnen compromitteren.

Een derde van de organisaties vreest voor een groeiend aanvalsvlak voor cybercriminelen, naast risico’s zoals misbruik van vertrouwde AI-status en problemen met autonome code-implementatie. Daarnaast geeft 31 procent toe dat ze geen zicht hebben op deze systemen, wat vragen oproept over hoe ze kunnen ingrijpen bij falen of misbruik. Bijna 40 procent steunt de invoering van een ‘kill switch’ om systemen uit te schakelen bij falen of misbruik, maar bijna de helft twijfelt.

Governance eerst

De discrepantie tussen AI-adoptie en risicobeheer wordt steeds duidelijker. TrendAI waarschuwt dat organisaties systemen implementeren die ze niet volledig begrijpen of besturen, met toenemende risico’s tot gevolg. Zonder zichtbaarheid en controle dreigt AI een nieuwe categorie van bedrijfsrisico’s te worden.

TrendAI sluit af met een oproep tot actie: organisaties moeten hun governance aanpassen aan de snelheid van AI-adoptie. Alleen zo kan de balans tussen innovatie en veiligheid worden hersteld voordat de risico’s onbeheersbaar worden.