AI is vloek en zegen voor Nederlandse cybersecurityspecialisten

security cybersecurityspecialisten

Bijna alle (99 procent) van Nederlandse cybersecurityspecialisten omarmt kunstmatige intelligentie (AI) om hun cybersecurity te versterken. Maar 98 procent van hen verwacht dat hun organisatie het komende jaar te maken krijgt met AI-bedreigingen. Dit blijk uit het Identity Security Threat Landscape Report 2023 van CyberArk.

Volgens het onderzoek wil vrijwel alle Nederlandse cyberbsecurityspecialisten (99 procent) kunstmatige intelligentie (AI) grootschalig inzetten. Daarbij gebruiken velen AI al voor risicoanalyse van kleinere bedreigingen.

Andere landen scoren vergelijkbare percentages, behalve het Verenigd Koninkrijk. Daar zijn cyberbsecurityspecialisten met 88 procent wat terughoudender met de inzet van AI voor security-doeleinden. Generatieve AI (GenAI) wordt met name al gebruikt om sneller ongebruikelijke elementen in gedrag te identificeren en de cyberweerbaarheid te verbeteren.

AI-bedreigingen

De steeds populairdere GenAI-tools zorgen echter ook voor een hele nieuwe lading aan kwetsbaarheden in de beveiliging. Ze baren beveiligingsprofessionals zorgen. Uit het onderzoek blijkt dat 98 procent verwacht dat AI-bedreigingen hun organisatie het komende jaar negatief zullen beïnvloeden. Dit percentage ligt wat hoger dan het internationale en Europese gemiddelde (beide 93 procent). Landen die zich minder zorgen maken zijn Italië (85 procent), het VK en Brazilië (allebei 87 procent).

De grootste zorg voor de Nederlandse respondenten is de stijgende impact van kwalijke code die van AI-tools komt, op de voet gevolgd door chatbot-beveiliging. In veel andere landen staat die laatste bovenaan. Dit komt vooral vanwege de mogelijkheden voor aanvallers om zich voor te doen als werknemers en zo makkelijker phishing-, malware- en ransomware-campagnes uit te voeren.

Aanvallers gebruiken GenAI al om legitiem ogende e-mails te maken voor phishingcampagnes of malware te genereren die gezichtsherkenningsverificatie of detectie omzeilt. Dergelijke technieken werden vorig jaar al onthuld. Toen bleek dat aanvallers ChatGPT konden gebruiken om schadelijke code te genereren en polymorfe malware te maken die zeer moeilijk op te merken is door de meeste anti-malwareproducten.

Lees ook:

Gerelateerde berichten...