Meer dan 100 miljoen gebruikers wereldwijd experimenteren en werken inmiddels met generatieve AI (GenAI). Maar net als bij elke nieuwe technologie brengt zakelijk gebruik van GenAI nieuwe risico’s met zich mee op het gebied van security, privacy, juridische kwesties, veiligheid en reputatiemanagement. Met name ‘schaduw-AI’ – het gebruik van ongeautoriseerde AI-tools – vergroot het risico op blootstelling aan malafide domeinen en lekken van vertrouwelijke of bedrijfskritische informatie.
Het probleem van schaduw-AI treft inmiddels vrijwel elke organisatie. Uit recent onderzoek van Software AG blijkt dat circa 50 procent van de medewerkers schaduw-AI inzet om efficiënter te werken. AI-tools zijn zeer toegankelijk, ook voor niet-technische gebruikers. Organisaties zijn bovendien steeds vaker voorstander van het gebruik van AI om de bedrijfsefficiëntie te verbeteren. Het is geen wonder dat werknemers dan hun eigen AI-tools zoeken om de persoonlijke efficiëntie te verbeteren. En dan eindig je dus met schaduw-AI. Dit vraagt om preventieve beveiliging die verder gaat dan detectie en respons, maar proactief ongeautoriseerd AI-gebruik kan identificeren en blokkeren.
De beveiligingsrisico’s van schaduw-AI
Schaduw-AI brengt uiteenlopende beveiligingsrisico’s met zich mee, van kleine incidenten tot bedreigingen voor de bedrijfscontinuïteit:
- Onbedoelde datalekken: Medewerkers kunnen per ongeluk gevoelige documenten, klantgegevens of broncode plakken in tools als ChatGPT, Gemini of Claude, waardoor vertrouwelijke informatie buiten het bedrijf terechtkomt. Wanneer een marketingteam bijvoorbeeld verkoopprognoses uploadt naar een AI-tekstschrijver, kan zomaar de interne roadmap op straat komen te liggen.
- Modelverwarring en inconsistente output: Het combineren van niet-goedgekeurde tools met interne workflows leidt tot tegenstrijdige resultaten, hallucinaties of zelfs bevooroordeelde adviezen. In sectoren als zorg, financiën en juridische dienstverlening kan dit desastreus zijn.
- Omzeilen van beveiligingsmaatregelen: Werknemers kunnen browserextensies, plug-ins of zelfs lokale LLM’s installeren op hun apparaten, waardoor kwetsbaarheden ontstaan zoals het lekken van authorisatietokens, misbruik van API’s of data-exfiltratie. Installeert een klantenservicemedewerker zonder toestemming een GPT-plug-in in Chrome? Dan loopt de organisatie direct risico dat inloggegevens via kwaadaardige extensies worden gestolen.
- Compliance: Het delen van gevoelige data met niet-goedgekeurde AI-tools kan in strijd zijn met wetgeving zoals de AVG, wat kan leiden tot forse boetes en juridische procedures. Als HR bijvoorbeeld AI inzet om werk met gevoelige persoonsgegevens te automatiseren, kunnen claims over verkeerde informatie of ‘bias’ al snel uitmonden in rechtszaken.
Wat deze problemen nog ernstiger maakt is dat er geen controle- of auditspoor is. Schaduw-AI-activiteiten worden bijvoorbeeld niet vastgelegd in traditionele monitoringtools. Niemand kan daardoor achterhalen wat er is ingevoerd of welke beslissingen zijn genomen, waardoor compliance- en forensische teams volledig in het duister tasten.
De groeiende uitdaging van schaduw-AI
Ondanks duidelijke beveiligingsrisico’s en bedrijfsbeleid dat het gebruik van niet-goedgekeurde AI-apps verbiedt, blijven medewerkers deze tools inzetten vanwege de gemakkelijke toegang en de aanzienlijke productiviteitswinst. En uit angst voor sancties melden ze dit gebruik niet, waardoor IT-afdelingen geen zicht hebben op welke AI-apps door wie worden gebruikt en welke risico’s deze vormen voor de organisatie. En dat zijn er flink wat.
Volgens Harmonic gebruiken bedrijven gemiddeld 254 AI-applicaties en vindt 45,4 procent van de gevoelige data-invoer plaats via privé-accounts zoals Gmail. Dit onderstreept de noodzaak om proactieve strategieën te ontwikkelen tegen het gebruik van ongeautoriseerde AI. Denk hierbij aan beleid dat een balans biedt tussen security en productiviteit, en het integreren van goedgekeurde alternatieven die zowel medewerkers als de organisatie vooruit helpen.
Schaduw-AI identificeren en blokkeren via DNS
Natuurlijk is beleid belangrijk en zijn traditionele securitytools onmisbaar in netwerkbeveiliging. Maar naast het implementeren van de basismaatregelen, kunnen organisaties fundamentele netwerkprotocollen gebruiken om beter inzicht te krijgen in AI-gebruik en schaduw-AI te blokkeren of te routeren om datalekken te voorkomen.
Een bijzonder eenvoudige en krachtige methode hiervoor is een Protective DNS (PDNS) oplossing. Hiermee kun je vaststellen wanneer gebruikers ongeautoriseerde AI-applicaties bezoeken op basis van hun DNS-activiteit. Vervolgens kun je de toegang blokkeren of gebruikers via DNS doorverwijzen naar een officieel goedgekeurde tool. Zo verschuif je de strijd tegen schaduw-AI van reactief naar preventief.
Het AI-landschap ontwikkelt zich razendsnel en de gevolgen voor security zijn groot. Met de juiste aanpak en strategieën – zoals het inzetten van DNS-gedreven dreigingsinformatie en DNS-gebaseerde applicatie-detectie – kunnen organisaties deze risico’s voorblijven en voorkomen dat zij slachtoffer worden.
Dit is een ingezonden bijdrage van Infoblox. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.