DeepMind stelt nieuw evaluatiekader voor om AI als cyberdreiging beter te begrijpen

DeepMind stelt nieuw evaluatiekader voor om AI als cyberdreiging beter te begrijpen

Google’s onderzoeksafdeling Deepmind introduceert een nieuw evaluatiekader waarbij geanalyseerd wordt hoe AI bestaande aanvalstechnieken efficiënter maakt.

Een nieuw framework van Google DeepMind moet helpen om de rol van AI in cyberaanvallen systematisch te analyseren en beveiligingsteams beter te wapenen tegen opkomende risico’s. Uit de tests met Google’s Gemini 2.0-model blijkt namelijk dat er zelden nieuwe aanvalstechnieken ontstaan, maar dat bestaande technieken efficiënter worden door de inzet van AI. Deze inzichten moeten organisaties helpen om hun verdedigingsmechanismen beter in te zetten.

Van aanvalsketen tot impactscore

Google DeepMind stelt een evaluatiekader voor om de impact van AI op cyberdreigingen in kaart te brengen. Het model analyseert hoe AI bestaande aanvalstechnieken efficiënter maakt, en welke fases in een cyberaanval daardoor extra aandacht vereisen. DeepMind werkte hiervoor met gegevens uit 12.000 bekende incidenten waarbij AI een rol speelde.

Het evaluatiekader bestaat uit vier stappen. Eerst worden representatieve aanvalsketens geselecteerd, zoals phishing, DDoS-aanvallen of zero-day-exploits. Vervolgens gebeurt een bottleneck-analyse: welke stappen in de aanvalsketen kan AI gemakkelijker of sneller maken? Daarna ontwikkelt het team benchmarks om de AI-prestaties in deze fases gericht te meten. Tot slot volgt een impactscore die de potentiële kostenbesparing voor aanvallers inschat, over de volledige keten heen.

lees ook

Gemini boven de wetenschap: Google DeepMind houdt AI-onderzoek achter gesloten deuren

Uit tests met Google’s eigen Gemini 2.0-model blijkt dat AI vooral de schaal en snelheid van aanvallen vergroot. Nieuwe aanvalstechnieken ontstaan zelden, maar bestaande tactieken worden wel efficiënter. AI presteert goed in taken zoals verkenning, ontwijking en het behouden van toegang. Moeilijkere taken zoals exploitontwikkeling blijven voorlopig complex.

Verdedigingsmaatregelen

De inzichten uit het kader moeten organisaties helpen om verdedigingsmaatregelen doelgerichter in te zetten. Zo blijkt bijvoorbeeld dat AI in de installatiefase en bij command-and-control communicatie nu al redelijk succesvol is. Volgens DeepMind vraagt dit om robuustere detectie en responsmechanismen. Het framework kan ook dienen als basis voor realistischere AI-enabled ‘red teaming’.

Een opvallend voorstel in de paper is het meten van AI’s impact via een soort “cyber-inflatie-index”. Die zou aangeven hoe AI de economische drempel voor cyberaanvallen verlaagt, doordat minder tijd of gespecialiseerde kennis nodig is.

Met dit kader wil DeepMind bijdragen aan een meer onderbouwde discussie over de rol van AI in cybersecurity. Het biedt handvaten om risico’s beter te begrijpen en verdediging proactief aan te passen aan de veranderende dreigingen.