Zscaler introduceert nieuwe functies voor veilige inzet van AI

zscaler logo

Nieuwe functies binnen het Zscaler-platform stellen organisaties in staat inzicht te krijgen in AI-toepassingen en deze veilig te bouwen, implementeren en gebruiken.

Zscaler breidt zijn AI-beveiligingsaanbod uit met nieuwe mogelijkheden die organisaties helpen om AI-toepassingen veilig te implementeren en te beheren. De focus ligt op beter inzicht, controle en governance bij het gebruik van generatieve en agentgebaseerde AI.

lees ook

Wat is Zscaler en hoe spreek je het uit?

Beveiliging voor het volledige AI-landschap

De nieuwe functies binnen de Zscaler AI Security Suite bieden organisaties een overzicht van alle AI-elementen binnen hun IT-omgeving. Denk aan GenAI-tools, embedded AI in SaaS-diensten, ontwikkelomgevingen, modellen, agents en onderliggende infrastructuur. Door deze componenten in kaart te brengen, kunnen bedrijven beter risico’s inschatten en datatoegang controleren.

Volgens Zscaler zorgen traditionele beveiligingsoplossingen niet voor voldoende bescherming bij AI-gebruik. AI-verkeer maakt gebruik van afwijkende protocollen en vertoont niet-menselijk gedrag, wat detectie bemoeilijkt. De nieuwe suite combineert asset discovery, toegangscontrole, gedragsonderzoek en risicobeoordeling. Hierdoor kunnen bedrijven AI sneller uitrollen zonder afbreuk te doen aan veiligheid of beleid.

Drie beveiligingspijlers en ondersteuning bij regelgeving

De suite richt zich op drie scenario’s: inzicht in AI-assets, veilige toegang tot AI en bescherming van AI-infrastructuur en -applicaties. CISO’s en IT-teams krijgen tools om ‘verborgen’ AI te detecteren en datagebruik te analyseren. Tegelijk maken zero trust-controles en geautomatiseerde inspectie veilig gebruik mogelijk. Voor ontwikkelteams zijn er beveiligingsmaatregelen voor de volledige levenscyclus van AI.

Zscaler ondersteunt daarnaast compliance met kaders zoals het NIST AI Risk Management Framework en Europese AI-wetgeving. Ook zijn er samenwerkingen met OpenAI, Anthropic, AWS, Microsoft en Google. Tot slot komt er een nieuwe gateway met AI Deception om aanvallen op modellen te detecteren en tegen te gaan.