Organisaties implementeren massaal agentic AI, maar blijven vooralsnog hangen bij taken met weinig risico en altijd met menselijke controle. Dat geldt ook voor grote bedrijven als Oracle, Netflix en Treasure Data. In een RSAC Webinar delen zijn hun grootste uitdagingen: van versnipperde toollandschappen tot de vraag wanneer ze agents écht beslissingen durven te laten nemen.
De enthousiasme is voelbaar. 88 procent van de bedrijven verwacht het AI-budget dit jaar te verhogen vanwege agentic AI, en 79 procent heeft al AI-agents geïmplementeerd in enige vorm. Maar achter die cijfers schuilt een complexer verhaal. Dat werd duidelijk tijdens een recent webinar van RSA Conference – ‘Innovation Showcase: Agentic Security for the Enterprise’ – waar drie enterprise-leaders verrassend eerlijk deelden waar ze tegenaan lopen.
“Ik heb 160 use cases geïdentificeerd die volgens mij agentic kunnen zijn,” vertelt Aysha Khan, die als CIO én CISO van Treasure Data een dubbele pet draagt. “Maar er is een probleem met de technische haalbaarheid. We moeten nu heel veel tools aan elkaar knopen om tot een eindresultaat te komen. Eén tool die alles kan, bestaat simpelweg niet.”
Die versnippering van tools is precies waar veel organisaties nu mee worstelen. Waar vorig jaar de discussie nog ging over grote versus kleine modellen, is dat vraagstuk inmiddels grotendeels beslecht. De meeste bedrijven gebruiken grote modellen voor hun workflows. Maar de agentic-era is pas dit jaar echt begonnen. Welke tools gebruik je – TrueAI, LangSafe, LangSmith, of juist de agent-code van AWS of Google? Dat vraagstuk is nog lang niet opgelost.
“We zijn ambitieuzer dan de markt,” vervolgt Khan. “Mijn zoektocht is nu: wie wordt de winnaar in de full stack? Hoe krijg ik steeds minder partners voor de benodigde consolidatie? Ik ben een groot voorstander van ‘secure en simple’. Hoe zorg ik ervoor dat het eerst simpel is, zodat ik dán security kan toepassen? Want nu zijn dingen nog veel te complex.”
Voorzichtig beginnen
Die complexiteit vertaalt zich ook in voorzichtigheid. Swathi Joshi, VP Cloud Security bij Oracle, ziet dat organisaties vooral beginnen bij taken met weinig risico. “We gebruiken agentic AI steeds vaker bij taken met een beperkte context – taken die we goed begrijpen en waar beslissingen geen grote gevolgen hebben.”
Als voorbeeld noemt ze het automatiseren van SOC-playbooks. “Daar hebben we specifieke playbooks. Je werkt de automatisering uit en er wordt een beslissing genomen. De beslislogica is gebaseerd op de acties van je beste analisten. Bij dit soort taken kan iemand anders nog controleren of er misschien een verkeerde beslissing is genomen.”
Maar zodra het om hogere risico’s gaat, wordt het ingewikkeld. “Neem een AI red team. Stel dat een agent direct toegang krijgt tot een productie-omgeving. Hoe test je dat? Hoe monitor je dat? Hoe meet je dat, en hoe breng je dat dan op schaal?”
Astha Singhal, Director Workforce and Infrastructure Security bij Netflix, herkent dat beeld. “Het draait nu vooral om hoe we onze medewerkers productiever maken – zowel technisch als niet-technisch personeel – en hoe we hun workflows efficiënter inrichten waar dat kan. Er valt nog veel te winnen door de productiviteit te verhogen met workflows waarin mensen betrokken blijven.”
Vertrouwen ontbreekt nog
Die menselijke controle is dus nog overal aanwezig. De vraag is: wanneer komt het kantelpunt waarop organisaties agents werkelijk kritieke beslissingen laten nemen zonder menselijk toezicht? Uit onderzoek blijkt dat slechts 42 procent van de executives aangeeft dat hun organisatie AI-ontwikkeling in balans brengt met de juiste beveiligingsinvesteringen. En maar 37 procent heeft processen ingericht om de beveiliging van AI-tools te beoordelen vóór implementatie.
“Ik denk dat controleerbaarheid, verifieerbaarheid, onweerlegbaarheid – al die elementen spelen een cruciale rol in ons vermogen om die stap te zetten,” stelt Singhal. “Want dat zijn enkele van de uitdagingen die we moeten oplossen om meer autonome workflows met agents mogelijk te maken.”
Joshi voegt daaraan toe: “De vraag is: wie is verantwoordelijk wanneer de agent iets verkeerd doet? En hoeveel uitleg of transparantie hebben we? Kan ik de diagnostische logs inzien of een trace bekijken om te begrijpen welke redenering mogelijk ontbrak toen deze specifieke beslissing werd genomen?”
Van AI-enthousiasme naar AI-moeheid
Het gebrek aan helderheid brengt ook een ander probleem met zich mee, zo blijkt tijdens de discussie. Khan noemt het ‘AI-moeheid’. “Er was een tijd dat we spraken over compliance fatigue. Nu krijgen we AI fatigue. Al die AI-tools genereren bergen alerts. Mijn team komt op een punt dat de tijd die we willen besparen doordat agents het werk doen, nu opgaat aan véél meer alerts die we moeten afhandelen.”
Volgens recent onderzoek heeft 82 procent van de bedrijven AI-agents in gebruik die toegang hebben tot gevoelige data, en bij 58 procent gebeurt dit dagelijks. Tegelijkertijd heeft 80 procent ervaren dat applicaties buiten hun beoogde grenzen opereerden.
Die spanning tussen ambities en realiteit vraagt om een andere benadering. “Elke AI-investering die we doen, moet in drie dingen passen,” legt Khan uit. “Eén: helpt het bij het genereren van omzet? Bij het creëren van onderscheidend vermogen? Twee: helpt het bij productiviteit? En drie: bouwen we meer vertrouwen? Als het op die drie categorieën klopt, is het een ja. Maar dan volgen de vragen: hoe beveilig ik het? Hoe breng ik het op schaal?”
Implementeren kan, opschalen niet
Die laatste vraag – hoe breng je het op schaal – blijkt de lastigste. Want hoewel 85 procent van de organisaties naar verwachting eind 2025 AI-agents zal hebben geïmplementeerd in minimaal één workflow, is het landschap voor agentic AI nog lang niet uitgekristalliseerd. Welke agentic tools gebruik je? Moet er een MCP gateway komen? Die fundamentele vragen zijn nog niet beantwoord.
Joshi vat het samen: “We willen de beslissingsondersteuning verbeteren. Ik wil real-time data, real-time detectie. Totdat ik dat vertrouwen heb, willen we alle beslissingsondersteuning versterken met AI en technologie. En het tweede punt: continue monitoring en de feedback loop. Hoe monitoren we alerts? Hoe leren we van false positives? En niet alleen hoe het algemene model leert, maar hoe het specifiek leert in ónze omgeving, gekoppeld aan onze data en onze workflows?”
Het is een paradox die de hele sector raakt: de technologie is er, de use cases zijn duidelijk, het budget is vrijgemaakt. Maar de fundamentele vraag – wanneer durven we agents écht los te laten – blijft voorlopig onbeantwoord. Niet omdat de technologie niet klaar is, maar omdat organisaties eerst de infrastructuur, governance en vertrouwenssystemen op orde moeten hebben.