Internationale veiligheidsdiensten uit de zogeheten Five Eyes-alliantie waarschuwen organisaties om uiterst voorzichtig om te gaan met het inzetten van AI-agents. In een nieuw gezamenlijk adviesdocument benadrukken diensten uit Australië, Canada, Nieuw-Zeeland, het Verenigd Koninkrijk en de Verenigde Staten dat deze technologie niet geschikt is voor gevoelige taken of ongecontroleerde toegang tot kritieke data.
Het document is onder meer opgesteld door de National Security Agency, de Cybersecurity and Infrastructure Security Agency en het Britse National Cyber Security Centre. Volgens deze instanties groeit het gebruik van zogeheten ‘agentic AI’ snel, met name binnen vitale infrastructuur en defensiesectoren. Juist daar kunnen fouten of kwetsbaarheden grote gevolgen hebben.
AI-agents
De diensten stellen dat AI-agents steeds vaker zelfstandig beslissingen nemen en acties uitvoeren, wat nieuwe veiligheidsrisico’s met zich meebrengt. Wanneer dergelijke systemen te veel rechten krijgen, kan dat leiden tot ongecontroleerde toegang tot gevoelige systemen en informatie. Daarnaast zijn er risico’s op het gebied van ontwerp en configuratie, waarbij fouten moeilijk te traceren zijn door de complexe architectuur van AI-systemen. Dit bemoeilijkt niet alleen het achterhalen van de oorzaak van incidenten, maar ook het toewijzen van verantwoordelijkheid.
Een ander belangrijk aandachtspunt is de manier waarop AI-agents communiceren. Als daarbij gebruik wordt gemaakt van onveilige protocollen of zwakke authenticatiemethoden, ontstaat het risico dat communicatie wordt onderschept. Dit kan resulteren in datalekken, manipulatie van instructies en bredere cybersecurity-incidenten. De mogelijke gevolgen variëren van productiviteitsverlies en operationele verstoringen tot ernstige inbreuken op nationale veiligheid.
Wat is een AI-agent en wat heb je eraan als bedrijf?
Aanbevelingen
Om deze risico’s te beperken, doen de veiligheidsdiensten een reeks aanbevelingen. Zo wordt organisaties geadviseerd om AI-agents alleen in te zetten voor laag-risicovolle en niet-gevoelige taken. Ook benadrukken zij het belang van continue monitoring en het toepassen van het principe ‘human in the loop’, waarbij menselijke controle een centrale rol blijft spelen bij belangrijke beslissingen.
Daarnaast waarschuwen de diensten expliciet tegen het geven van brede en onbeperkte toegang aan AI-systemen, vooral wanneer het gaat om vitale infrastructuur of vertrouwelijke gegevens. Security moet vanaf het begin een integraal onderdeel zijn van de implementatie van agentic AI, aldus het rapport.
De boodschap is helder: hoewel AI-agents kansen bieden voor efficiëntie en automatisering, mogen organisaties de veiligheidsrisico’s niet onderschatten.