3min Security

Proofpoint introduceert AI-securityoplossing die gedrag en intentie van AI controleert

Proofpoint introduceert AI-securityoplossing die gedrag en intentie van AI controleert

Cybersecuritybedrijf Proofpoint heeft een nieuwe beveiligingsoplossing gelanceerd die specifiek is ontwikkeld voor het groeiende gebruik van kunstmatige intelligentie binnen organisaties. De oplossing, Proofpoint AI Security, richt zich niet alleen op wat AI-systemen doen, maar vooral op waarom ze dat doen. Daarmee wil het bedrijf een fundamenteel probleem in de huidige beveiliging aanpakken: het gebrek aan inzicht in de intentie achter AI-gedrag.

Volgens Proofpoint verandert de opkomst van autonome AI-agents de manier waarop organisaties werken ingrijpend. Deze agents kunnen zelfstandig taken uitvoeren, zoals e-mails versturen, code schrijven of toegang krijgen tot interne systemen. Eén opdracht kan daarbij tientallen acties in gang zetten, vaak zonder direct menselijk toezicht.

Gedrag

Dat brengt nieuwe risico’s met zich mee. Denk aan zogenoemde zero-click prompt injection-aanvallen of situaties waarin AI-agents meer bevoegdheden krijgen dan bedoeld. Uit onderzoek van Acuvity, een recent door Proofpoint overgenomen bedrijf, blijkt dat 70 procent van de organisaties nog geen effectief AI-beheer heeft ingericht. Daarnaast verwacht de helft binnen een jaar AI-gerelateerd dataverlies.

Van detectie naar begrip van intentie

Traditionele securitytools zijn volgens Proofpoint onvoldoende toegerust om deze nieuwe dreigingen aan te pakken. Ze kunnen wel zien welke data wordt verwerkt of welke systemen worden benaderd, maar niet beoordelen of die acties passen bij de oorspronkelijke bedoeling van een gebruiker of AI-agent.

De nieuwe oplossing introduceert daarom detectiemodellen die zijn gebaseerd op intentie. Het systeem analyseert continu de semantische context van AI-interacties en vergelijkt die met beleidsregels en het oorspronkelijke doel van een taak. Afwijkingen of risicovolle acties kunnen zo in realtime worden opgespoord en gestopt, nog voordat er schade ontstaat.

Manipulatie

“AI is inmiddels een vast onderdeel van het werk geworden, en security moet daarin meegroeien”, zegt Sumit Dhawan. Volgens hem lopen zowel mensen als AI-agents vergelijkbare risico’s, omdat beide kunnen worden gemanipuleerd of onbedoeld verkeerde acties kunnen uitvoeren.

Brede controle over AI-gebruik

Proofpoint AI Security werkt via een uniforme architectuur die actief is op meerdere niveaus, zoals endpoints, browsers en koppelingen tussen AI-systemen. Organisaties krijgen daarmee inzicht in welke AI-tools worden gebruikt, van bekende toepassingen zoals ChatGPT tot minder gecontroleerde systemen.

Daarnaast kunnen bedrijven toezicht houden op prompts, datastromen en reacties, en beleidsregels afdwingen tijdens live interacties met AI. Dit is vooral relevant in ontwikkelomgevingen, waar AI-tools snel worden geïntegreerd in dagelijkse workflows.

Framework voor veilige AI-adoptie

Naast de technologie introduceert Proofpoint ook een zogeheten Agent Integrity Framework. Dit model beschrijft hoe AI-agents zich betrouwbaar en voorspelbaar moeten gedragen en biedt een stappenplan in vijf fasen, van eerste detectie tot volledige handhaving.

Volgens Ryan Kalember moeten AI-agents net als mensen voldoen aan duidelijke normen. “Ze moeten handelen binnen hun doel, bevoegdheden en verwachte gedrag”, stelt hij.

Behoefte aan controle

Met de nieuwe oplossing speelt Proofpoint in op de groeiende behoefte aan controle over AI-systemen. Naarmate organisaties meer vertrouwen op autonome technologie, wordt niet alleen de vraag wat AI doet belangrijker, maar vooral of dat gedrag overeenkomt met de bedoeling.