2min Security

CISA publiceert nieuwe richtlijnen voor veilige inzet van AI in OT-omgevingen

CISA publiceert nieuwe richtlijnen voor veilige inzet van AI in OT-omgevingen

De Amerikaanse cybersecuritydienst CISA heeft samen met diverse internationale veiligheidsorganisaties een nieuwe set richtlijnen gepubliceerd voor het veilig gebruik van kunstmatige intelligentie binnen operationele technologie (OT). Het document is ontwikkeld in samenwerking met onder meer de FBI, de NSA, cybersecuritycentra uit Canada, Duitsland, Nederland, Australië, het Verenigd Koninkrijk en Nieuw-Zeeland.

Richtlijnen

De publicatie komt op een belangrijk moment. Zowel AI-systemen als OT-omgevingen behoren tot de meest risicovolle en interessante doelwitten voor cyberaanvallen. OT wordt namelijk gebruikt in sectoren als energie, waterbeheer, defensie, productie en gezondheidszorg — domeinen waarin fouten directe gevolgen kunnen hebben voor veiligheid, economie en infrastructuur.

AI brengt kansen en risico’s

Volgens de 25-pagina’s tellende richtlijn kan AI in OT-systemen waardevolle voordelen bieden, zoals efficiëntere besluitvorming, het detecteren van afwijkingen in SCADA-systemen of voorspellend onderhoud. Maar de inzet brengt ook nieuwe risico’s met zich mee. Zo kunnen AI-modellen “driften”, waarbij hun gedrag langzaam afwijkt van de oorspronkelijke veiligheidsparameters. Ook kunnen AI-systemen onbedoeld veiligheidsmechanismen omzeilen of verkeerde aanbevelingen doen, bijvoorbeeld wanneer een taalmodel gaat hallucineren.

Aanbevelingen voor organisaties

De richtlijn adviseert organisaties onder meer om:

  • Goed begrip van AI-technologie te ontwikkelen binnen zowel technische teams als management.
  • Alleen AI toe te passen wanneer er een duidelijk bedrijfsdoel is — niet omdat het “innovatief” klinkt.
  • Databeheer te versterken, zoals inzicht in opgeslagen gegevens en beperking van toegang voor AI-modellen.
  • Heldere governance- en compliancekaders te ontwikkelen, inclusief beleid, verantwoordelijkheden, testen en monitoring.
  • AI-systemen te voorzien van beveiligingsmechanismen en menselijke controle, zodat systemen veilig kunnen falen zonder de continuïteit van kritieke infrastructuur te verstoren.

Voorzichtig optimisme, maar geen haast

Hoewel sommige experts verwachten dat generatieve AI uiteindelijk een rol zal spelen bij onderhoud, diagnostiek en incidentrespons, is het sentiment in de sector nog terughoudend. Volgens meerdere betrokken cybersecurityexperts moet veiligheid in OT omgevingen altijd zwaarder wegen dan innovatie.

De publicatie onderstreept dat AI in OT geen “aanzetten en klaar”-technologie is, maar een langdurig traject van risicobeoordeling, toezicht en zorgvuldig beheer.