De snelle opmars van AI-toepassingen in het bedrijfsleven brengt niet alleen efficiëntiewinsten met zich mee, maar ook nieuwe en vaak onderschatte veiligheidsrisico’s. De Gentse startup Enoki wil dat probleem aanpakken met een opvallende oplossing: een autonome AI-hacker agent die AI-applicaties zelf onder vuur neemt om kwetsbaarheden bloot te leggen.
Waar klassieke softwarebeveiliging vooral steunt op codescans, schieten die methodes volgens Enoki tekort bij AI-systemen. Dat komt doordat toepassingen die draaien op taalmodellen zich niet altijd voorspelbaar gedragen. “Het risico zit niet alleen in de code, maar in hoe het model reageert op input,” zegt medeoprichter Sander Noels. “Met één slim geformuleerde prompt kan een AI-agent gevoelige data prijsgeven of ongewenste acties uitvoeren.”
AI-hacker agent
De urgentie van dat probleem groeit snel. Volgens cijfers van het Britse AI Security Institute zijn er in 2026 al meer dan 700 AI-gerelateerde incidenten geregistreerd, een sterke stijging ten opzichte van een jaar eerder. Onderzoeksbureau Gartner verwacht bovendien dat tegen 2028 één op de vier bedrijfsapplicaties met generatieve AI jaarlijks meerdere beveiligingsincidenten zal kennen. Recente voorbeelden illustreren de risico’s: zo lekte een interne chatbot van McKinsey & Company klantgegevens, terwijl een AI-agent van Meta interne informatie openbaar maakte.
Testen zoals een echte aanvaller
Enoki speelt daarop in met een platform dat AI-systemen test zoals een hacker dat zou doen. In plaats van enkel code te analyseren, simuleert de software honderden aanvallen op het gedrag van het model zelf, variërend van promptinjectie tot datadiefstal.
Het platform bestaat uit drie onderdelen. Eerst worden AI-toepassingen getest vóór ze live gaan. Vervolgens bewaakt het systeem toepassingen in productie door continu input en output te scannen. Tot slot brengt het platform alle AI-systemen binnen een organisatie in kaart en koppelt het risico’s aan regelgeving zoals de Europese AI-wetgeving.
Volgens Enoki is die aanpak noodzakelijk omdat AI-agenten steeds autonomer worden. Waar chatbots vroeger vooral antwoorden genereerden, kunnen moderne systemen zelfstandig betalingen uitvoeren, contracten analyseren of software schrijven. Dat vergroot het potentiële risico aanzienlijk.
Groeiende markt en ambities
De startup wordt geleid door Audrey Stampaert, Joachim Roelants en Sander Noels, en richt zich in eerste instantie op Europese bedrijven die zelf AI-oplossingen ontwikkelen. De markt voor AI-cybersecurity groeit volgens prognoses richting 86 miljard euro tegen 2030.
Met die groeiverwachting in het achterhoofd haalt Enoki momenteel zijn eerste klanten binnen en bereidt het een investeringsronde voor. “Bedrijven willen snel innoveren met AI, maar onderschatten vaak de risico’s,” zegt Stampaert. “Eén incident kan genoeg zijn om reputatieschade en operationele problemen te veroorzaken. Wij willen de beveiligingslaag bouwen voor het tijdperk van AI-agenten.”