Volgens een recente voorspelling van Gartner zal tegen 2027 meer dan 40 procent van de AI-gerelateerde datalekken veroorzaakt worden door onjuist gebruik van generatieve AI (GenAI) over landsgrenzen heen. De snelle adoptie van GenAI-technologieën door eindgebruikers heeft de ontwikkeling van databeheer- en beveiligingsmaatregelen ingehaald, wat leidt tot zorgen over data-lokalisatie door de gecentraliseerde rekenkracht die nodig is voor deze technologieën.
AI-datalekken
“Onbedoelde grensoverschrijdende dataoverdrachten vinden vaak plaats door een gebrek aan toezicht, vooral wanneer GenAI wordt geïntegreerd in bestaande producten zonder duidelijke communicatie hierover”, aldus Joerg Fritsch, VP-analist bij Gartner. Organisaties merken dat de inhoud die medewerkers met GenAI-tools produceren verandert. Hoewel deze tools voor zakelijke toepassingen worden gebruikt, vormen ze een risico als gevoelige gegevens naar AI-tools en API’s in onbekende locaties worden gestuurd.
Gebrek aan wereldwijde AI-standaarden
Het ontbreken van uniforme wereldwijde richtlijnen voor AI en databeheer zorgt voor marktsplintering en dwingt bedrijven om regio-specifieke strategieën te ontwikkelen. Dit kan hun vermogen om wereldwijd op te schalen beperken.
“Het beheren van datastromen en het waarborgen van datakwaliteit door lokale AI-beleidsregels leidt tot operationele inefficiënties”, aldus Fritsch. “Bedrijven moeten investeren in geavanceerd AI-beheer en beveiliging om gevoelige gegevens te beschermen en naleving te garanderen.”
Actie
Gartner voorspelt dat AI-governance tegen 2027 een vereiste zal worden onder alle nationale AI-wetten en regelgeving. Bedrijven zonder een adequaat governance-model lopen het risico op een concurrentienadeel.
Om AI-datalekken door grensoverschrijdend misbruik te beperken en naleving te garanderen, adviseert Gartner de volgende strategische maatregelen:
- Verbeter databeheer: Zorg voor naleving van internationale regelgeving en monitor ongewenste grensoverschrijdende dataoverdracht.
- Stel governancecommissies in: Deze commissies moeten AI-toezicht versterken en transparante communicatie over AI-implementaties waarborgen.
- Versterk databeveiliging: Gebruik geavanceerde technologieën zoals encryptie en anonimisering om gevoelige data te beschermen.
- Investeer in TRiSM-producten: Beheer AI-risico’s met Trust, Risk, and Security Management-producten om de accuraatheid van AI-gebruik te verhogen.
Gartner presenteert de nieuwste inzichten en aanbevelingen tijdens de Gartner Security & Risk Management Summits in 2025 in onder andere Sydney, Dubai, Tokyo en Londen.