AI beleeft een hoogtepunt. En dat is niet zonder reden.
Organisaties in uiteenlopende sectoren zien echte voordelen. Snellere processen, diepere inzichten en meer klantgerichte ervaringen die op grote schaal haalbaar worden. Van fraudedetectie tot automatisering en adaptieve dienstverlening: AI is van experiment naar instrument geëvolueerd. Leiders vragen zich niet langer af óf ze AI moeten adopteren, maar hoe snel ze het kunnen uitrollen zonder achter te blijven.
Eerst kwamen voorspellende en analytische AI. Daarna versnelde generatieve AI het momentum nog verder, en die evolutie ging vaak sneller dan de gesprekken over waar het gebruik ervan gepast is. Nu komt agentic AI op, waarbij systemen niet alleen outputs genereren of beslissingen aanbevelen, maar er ook autonoom naar kunnen handelen.
Deze evolutie gaat snel en overtreft in veel organisaties het tempo dat governance-modellen en risicokaders realistisch kunnen bijhouden. Deze systemen steunen op statistische patronen uit grote datasets en presteren in veel situaties opmerkelijk goed. Maar naarmate ze evolueren van adviseren naar beslissen en nu naar rechtstreeks handelen in productieomgevingen, veranderen de risico’s fundamenteel.
In gereguleerde sectoren betekent intelligent echter niet automatisch aanvaardbaar of compliant.
Terwijl organisaties AI versneld uitrollen, dringt een belangrijke vraag zich op: overwegen ze terdege welk type AI in productie wordt gebracht, en wat het betekent wanneer beslissingen financiële, juridische of maatschappelijke gevolgen hebben?
Probabilistische AI vs. deterministische beslissingen
Want niet alle AI is gelijk. Hoe een systeem tot resultaten komt, is minstens even belangrijk als het feit dat het AI gebruikt.
Veel van de systemen die vandaag terrein winnen, zijn probabilistisch van aard, waaronder generatieve en agentic AI. Hun outputs zijn gebaseerd op patronen en waarschijnlijkheid in plaats van vaste regels — dat is deels wat ze krachtig maakt. Het betekent ook dat resultaten kunnen variëren. Stel dezelfde vraag op een ander moment, formuleer ze anders of introduceer nieuwe data, en het antwoord kan veranderen, ook al is het uitgangspunt hetzelfde.
In creatieve of verkennende contexten kan variabiliteit waardevol zijn. Ze kan opties aan het licht brengen die mensen zelf niet zouden overwegen. In operationele beslissingsomgevingen, waar de uitkomst het financiële leven van mensen beïnvloedt, liggen de implicaties veel zwaarder.
Maar wat gebeurt er als die variabiliteit een kredietbeslissing bepaalt? Of wanneer een autonoom agent niet alleen een actie aanbeveelt, maar die ook uitvoert?
Stel je een klant voor die via een digitaal kanaal een persoonlijke lening aanvraagt. Een probabilistisch model beoordeelt het risico op basis van historische data en gedragssignalen, en de aanvraag wordt goedgekeurd. Een week later levert een tweede aanvraag met nagenoeg identieke informatie een ander resultaat op, omdat nieuwe data werd toegevoegd of modelparameters zijn aangepast. Vanuit het perspectief van de klant voelt de beslissing willekeurig aan. Vanuit het perspectief van de instelling en de regelgever roept dit fundamentele vragen op over voorspelbaarheid, eerlijkheid, verklaarbaarheid en voortdurende naleving van regelgeving in AI-gestuurde besluitvorming.
In financiële omgevingen waar verantwoordingsplicht cruciaal is, moeten organisaties kunnen aantonen dat beslissingen consistent worden toegepast en verantwoord kunnen worden wanneer ze worden betwist. Dat is precies waar het onderscheid tussen probabilistische en deterministische benaderingen van belang wordt.
Probabilistische modellen zijn krachtig voor het genereren van inzichten of het identificeren van patronen. Deterministische beslissingslogica werkt anders. Dezelfde input leidt altijd tot dezelfde output. Teruggrijpend naar het kredietvoorbeeld: twee klanten met hetzelfde profiel ontvangen dezelfde beslissing. Wanneer het gaat om toelaatbaarheid, prijsstelling, complianceoordelen of handhavingsmaatregelen, is die consistentie geen optie. Het is een fundament en cruciaal voor het vertrouwen van de klant in de financiële instelling.
Governance, compliance en de rol van policy as code
In gesprekken met klanten, banken en financiële instellingen erkennen beslissingnemers steeds vaker dat dit niet louter een technologische kwestie is, maar ook een governance-kwestie. Ik heb dit probleem herhaaldelijk zien opduiken wanneer organisaties evolueren van experimenteren naar productieomgevingen, en wanneer deze systemen op schaal beginnen te werken.
Een belangrijk risico is de neiging om AI als één technologische categorie te beschouwen. Wanneer een systeem in één context goed werkt, is het verleidelijk om te geloven dat het overal betrouwbaar is. Intelligentie wordt zo verward met betrouwbaarheid.
In deze omgevingen heeft betrouwbaarheid een zeer specifieke betekenis. Beslissingen kunnen maanden of zelfs jaren later worden herzien, vaak onder toezicht van toezichthouders of bestuurders. Organisaties moeten kunnen traceren hoe een uitkomst tot stand is gekomen en welke factoren daarin een rol speelden. Toezichthouders en klanten verwachten duidelijkheid wanneer uitkomsten financiële of persoonlijke gevolgen hebben.
Dit betekent niet dat probabilistische AI geen rol heeft. Integendeel. Het kan aanzienlijke waarde bieden bij onderzoek, analyse en het genereren van inzichten, en het kan klantinteracties ondersteunen wanneer betekenisvolle menselijke controle aanwezig is. De bezorgdheid ontstaat wanneer probabilistische outputs rechtstreeks beslissingen bepalen die verklaarbaar, controleerbaar en verdedigbaar moeten zijn.
Regelgevende verwachtingen evolueren in reactie op deze realiteit. Kaders zoals de AI-Act van de Europese Unie weerspiegelen een groeiende nadruk op transparantie, governance en verantwoordingsplicht. Het doel is niet om innovatie te verhinderen, maar om te garanderen dat uitkomsten begrepen en gerechtvaardigd kunnen worden.
Veel organisaties reageren door guardrails te introduceren rond AI-systemen. Monitoring en toezicht zijn belangrijk, maar controles die rond een probabilistisch model worden geplaatst, veranderen de onderliggende aard ervan niet. Guardrails beheersen risico’s, maar lossen structurele inconsistentie niet op. De vraag is dan ook niet alleen hoe AI te monitoren, maar hoe compliance vanaf het begin in de besluitvorming en het handelen te integreren.
Policy as code biedt een praktische manier om al deze elementen samen te brengen en biedt een oplossing aan. In plaats van regelgevende teksten om te zetten in richtlijnen of documentatie, vertaalt het regelgevende, zakelijke en ethische intenties naar uitvoerbare logica die rechtstreeks in systemen is ingebed en compliance by design kan afdwingen. Die logica kan worden getest, geversioneerd en consistent worden afgedwongen, wat voorspelbare, verklaarbare en controleerbare uitkomsten mogelijk maakt waarachter organisaties kunnen staan.
Het creëert een structuur waarbij probabilistische modellen intelligentie aanleveren, terwijl gecodificeerd beleid bepaalt welke acties zijn toegestaan en onder welke voorwaarden.
Voor leiders vereist deze verschuiving een andere manier van denken. Het volstaat niet langer te weten wat een AI-systeem doet. Leiders moeten begrijpen hoe beslissingen tot stand komen, hoe consistentie wordt gewaarborgd en waar de verantwoordingsplicht uiteindelijk ligt. Governance-modellen moeten onderscheid maken tussen verkennend gebruik van AI en operationele beslissingssystemen. Menselijk toezicht kan niet louter op papier bestaan. Het moet betekenisvol en doeltreffend zijn.
De toekomst van AI in gereguleerde sectoren wordt niet alleen bepaald door hoe intelligent systemen worden. Ze wordt gevormd door hoe doelbewust organisaties de systemen daaromheen ontwerpen, inclusief waar variabiliteit aanvaardbaar is en waar consistentie essentieel is.
De echte vraag is niet hoe geavanceerd AI kan worden. Het is of beslissingnemers systemen bouwen waar ze kunnen achter staan wanneer beslissingen worden betwist, gecontroleerd of aangevochten. En dat begint bij het stellen van betere vragen over de technologie die we kiezen, de acties die we toestaan en de verantwoordingsplicht die we eromheen ontwerpen.
Beslissingnemers die dit onderscheid begrijpen, zullen beter geplaatst zijn om AI met vertrouwen te adopteren, terwijl ze het vertrouwen en de verantwoordingsplicht behouden waarvan hun organisaties afhangen.
Dit is een ingezonden bijdrage van Anton Wilsens, Vice President en Managing Partner voor Belfius, Kyndryl. Klik hier voor meer informatie over de oplossingen van het bedrijf.
