3min Security

Onderzoek Stanford-universiteit: AI-agent verslaat professionals in hack-test

Onderzoek Stanford-universiteit: AI-agent verslaat professionals in hack-test

Een AI-agent van Universiteit Stanford heeft tijdens een 16 uur durende test negen van de tien menselijke cybersecurity-professionals verslagen. Het systeem vond kwetsbaarheden die mensen mistten en kostte een fractie van zo’n professionele ‘hacker’.

Stanford-onderzoekers lieten hun AI-agent ARTEMIS los op het netwerk van de bekende universiteit. Dat netwerk bestaat uit ongeveer 8000 apparaten, waaronder servers, computers en allerlei andere slimme devices. Binnen tien uur vond het systeem negen geldige kwetsbaarheden met een nauwkeurigheid van 82 procent schrijft The Wall Street Journal. De ‘AI-hacker’ eindigde als tweede in een experiment met tien geselecteerde cybersecurity-professionals. Maar liefst negen van hen presteerde slechter dan het geautomatiseerde systeem.

Investering van slechts 18 dollar per uur

De kosten van ARTEMIS liggen rond de 18 dollar per uur voor de basisversie. Een geavanceerdere variant kost 59 dollar per uur. Dat is nog steeds een schijntje als je het vergelijkt met personen die systemen checken op kwetsbaarheden. Zo’n professional verdient gemiddeld 125000 dollar per jaar, aldus Straits Research.

De AI-agent heeft een heel andere aanpak dan menselijke testers. Wanneer ARTEMIS iets ‘opmerkelijks’ tegenkwam tijdens een scan, creëerde de AI-agent automatisch extra ‘sub-agents’ die op de achtergrond verder onderzoek deden. Zo kon het systeem meerdere doelen tegelijkertijd analyseren, terwijl mensen dat niet kunnen en alles stap voor stap moeten bekijken.

Zo vond ARTEMIS een zwakte op een oude server waar menselijke testers niet eens bij konden omdat hun browsers weigerden de pagina te laden. De agent omzeilde dit probleem simpelweg met een simpele command-line request.

Zwakke punten blijven bestaan

Toch maakte de AI ook nog steeds fouten, onder andere met taken die vereisten dat er werd geklikt door grafische schermen en interfaces. Daardoor miste de agent een kritieke kwetsbaarheid, die wel opgepikt werd door menselijke testers. Ook produceerde ARTEMIS meer valse alarmen dan mensen, omdat onschuldige netwerkberichten soms werden gezien als false positives.

“Omdat ARTEMIS code-achtige input en output goed verwerkt, presteert het beter wanneer grafische interfaces niet beschikbaar zijn”, aldus de onderzoekers. Het Stanford-onderzoek bevestigt een bredere trend: AI verlaagt de drempel voor hacking en desinformatieoperaties. Een rapport van Anthropic uit november onthulde dat Noord-Koreaanse hackers hun Claude-model gebruikten voor snode zaken. Hackers gebruiken AI-modellen vaker om data te extraheren, systemen plat te leggen of websites en tools te manipuleren.

De penetration testing markt groeit volgens Mordor Intelligence met 15,5 procent per jaar en bereikt in 2030 naar verwachting 4,83 miljard dollar. De komst van geautomatiseerde penetratietesten met AI-agents betekent wel dat organisaties hun beveiliging vaker en grondiger kunnen testen. Daar tegenover staat dus wel dat het kwaadwillenden tegelijkertijd krachtigere tools biedt.