Kunstmatige intelligentie is niet langer een experimentele technologie binnen cybersecurity. Volgens het AI Engineering-team van de Europese securityspecialist HarfangLab is AI inmiddels een structurele factor geworden, zowel aan de kant van cyberaanvallers als bij organisaties die zich proberen te verdedigen. Die ontwikkeling verandert het digitale dreigingslandschap in hoog tempo.
Nieuwe vormen van desinformatie, manipulatie van AI-modellen en hypergepersonaliseerde phishingaanvallen vormen volgens het bedrijf de belangrijkste risico’s. Een belangrijke zorg is de groeiende rol van AI bij het produceren van misleidende of valse informatie.
Dankzij open source AI-modellen en large language models (LLM’s) wordt het voor kwaadwillenden steeds eenvoudiger om overtuigende nepcontent te genereren. Dat kan variëren van tekst en afbeeldingen tot realistische audio- en videofragmenten. Hierdoor wordt het voor organisaties en burgers steeds lastiger om te onderscheiden wat authentiek is en wat niet.
HarfangLab
Daarnaast wijst HarfangLab op het gevaar van zogeheten ‘data poisoning’. Daarbij worden trainingsdatasets van AI-modellen subtiel aangepast, waardoor het model structureel verkeerd gedrag kan vertonen. Zelfs minimale wijzigingen in de data kunnen al leiden tot een verschuiving in de output van een model. Dat kan grote gevolgen hebben, bijvoorbeeld wanneer AI-systemen worden gebruikt voor onderzoek, analyse of besluitvorming.
Volgens Pierre Delcher, Head of Threat Research bij HarfangLab, kan vertrouwen in AI alleen bestaan als er duidelijke technologische waarborgen zijn. Transparantie, regelgeving en onafhankelijke controles spelen daarbij een cruciale rol. Wanneer een van deze pijlers ontbreekt, kunnen kleine kwetsbaarheden uitgroeien tot serieuze systeemrisico’s.
Manipuleren van code
Een andere ontwikkeling is het manipuleren van code die door AI-systemen wordt gegenereerd. Ontwikkelaars gebruiken steeds vaker AI-assistenten om softwarecode te schrijven of te controleren. Onderzoek toont echter aan dat aanvallers deze systemen kunnen beïnvloeden, waardoor ze onveilige of zelfs kwaadaardige code voorstellen. De aanval richt zich dan niet langer op bestaande software, maar op het ontwikkelproces zelf. Als dergelijke code in applicaties of softwarebibliotheken terechtkomt, kan de impact zich via de hele softwareketen verspreiden.
Vishing
Ook phishing verandert door AI ingrijpend. Waar gepersonaliseerde oplichting vroeger veel handmatig werk vereiste, maakt AI het mogelijk om deze aanvallen op grote schaal te automatiseren. Cybercriminelen kunnen berichten genereren die specifiek zijn afgestemd op een doelwit, inclusief context en eerdere communicatie. Bovendien worden steeds vaker AI-gegenereerde stemmen gebruikt voor telefonische fraude, ook wel vishing genoemd.
Fysieke omgevingen
De risico’s beperken zich niet tot de digitale wereld. AI-systemen worden steeds vaker ingezet in fysieke omgevingen, zoals logistiek, industriële automatisering en energiebeheer. Wanneer dergelijke systemen worden gemanipuleerd, kan dat leiden tot concrete verstoringen, bijvoorbeeld verkeerd aangestuurde robots of logistieke systemen die vracht verkeerd routeren.
Tegelijkertijd speelt AI ook een belangrijke rol in de verdediging tegen cyberaanvallen. Securityteams gebruiken AI om verdachte activiteiten sneller te detecteren, waarschuwingen te prioriteren en analyses te automatiseren. Volgens HarfangLab is AI daarmee definitief onderdeel geworden van het cybersecuritylandschap, aan zowel de aanvallende als de verdedigende kant.