3min Security

Onderzoek: AI-beveiligingsincidenten stijgen met 43 procent:

Onderzoek: AI-beveiligingsincidenten stijgen met 43 procent:

Beveiligingsincidenten met AI-applicaties namen het afgelopen jaar wereldwijd met 43 procent toe. Dat blijkt uit onderzoek van KnowBe4 onder 700 cybersecurity-leiders en 3500 medewerkers. Kunstmatige intelligentie is daarmee de op een na grootste groeifactor in het dreigingslandschap, direct na e-mail.

De snelle opkomst van generatieve AI, autonome agents en AI-workflows introduceert nieuwe risico’s. Medewerkers uploaden bijvoorbeeld gevoelige documenten naar AI-tools, systemen worden gemanipuleerd en cybercriminelen zetten AI in voor aanvallen op een veel schaalbaardere manier. Voor cybersecurity-leiders is het bijhouden van voortdurend evoluerende AI-dreigingen hun grootste uitdaging. Daarom wordt dit door 45 procent van de ondervraagden genoemd als voornaamste probleem bij het beheersen van menselijk gedrag.

Deepfakes worden persoonlijker en geloofwaardiger

AI speelt een steeds grotere rol in social engineering-aanvallen. Bijna een derde (32 procent) van de organisaties rapporteerde het afgelopen jaar meer incidenten met deepfakes. Deze technologie kan worden ingezet voor stem- en identiteitsvervalsing. Daardoor worden aanvallen ook persoonlijker.

Medewerkers zijn zich bewust van het risico van deze vorm van AI-misbruik. Een groot deel (86 procent) maakt zich daadwerkelijk zorgen over misleiding via deepfakes, bijvoorbeeld om toegang te krijgen tot systemen of vertrouwelijke informatie. Slechts 35 procent van de organisaties heeft echter technologie geïmplementeerd om deze vorm van AI te detecteren. Hierdoor blijven veel AI-gedreven aanvallen onopgemerkt of worden ze pas laat ontdekt schrijft beveiligingsbedrijf KnowBe4.

Shadow AI groeit door governance-kloof

Hoewel maar liefst 98 procent van de organisaties aangeeft stappen te hebben genomen om AI-gerelateerde risico’s te beheersen, ervaren medewerkers beperkingen in de praktijk. Iets meer dan een kwart (26 procent) zegt snel toegang te krijgen tot de AI-tools die zij nodig hebben. Meer dan de helft (56 procent) vindt dat toegang te traag is of volledig ontbreekt.

Deze governance-kloof stimuleert risicovol gedrag. Een op de zes (17 procent) van de medewerkers gebruikt AI-tools zonder toestemming van de IT-afdeling of securityteams. Dit ‘shadow AI’-gebruik vergroot het risico op datalekken, onnodig delen van gevoelige informatie en onzichtbare manipulatie van AI-agents.

Cyber Security Raad luidt noodklok: “Structureel 690 miljoen euro nodig voor cybersecurity”

Human Risk Management moet uitbreiden

Volgens het onderzoek is artificiële intelligentie niet alleen een externe dreiging, maar ook een interne risicofactor. Die hang direct samen met menselijk gedrag. Zonder duidelijke richtlijnen, real-time begeleiding en zicht op gebruik verschuift kritisch werk naar onzichtbare, hoog-risico omgevingen.

“De productiviteitswinst die AI oplevert is te groot om te negeren. De toekomst van werk vraagt daarom om een naadloze samenwerking tussen mens en AI”, zegt Javvad Malik, Lead CISO Advisor bij KnowBe4. “Medewerkers en AI-agents zullen in harmonie moeten samenwerken, ondersteund door een beveiligingsprogramma dat de risico’s van beide proactief beheert. Human Risk Management moet zich uitbreiden naar de AI-laag, voordat kritieke bedrijfsprocessen verschuiven naar hoog-risico platforms waar geen adequaat toezicht op is.”

Het rapport ‘The State of Human Risk 2025: The New Paradigm of Securing People in the AI Era‘ is gebaseerd op onafhankelijk onderzoek van Arlington Research. Voor het onderzoek zijn 700 cybersecurity-leiders en 3500 medewerkers wereldwijd ondervraagd.