Lang leve AI, maar hoe bescherm je je organisatie tegen de risico’s?

Nu het einde van het jaar dichterbij komt, mogen we stilaan stellen dat AI-tools zoals Chat GPT dé trend van 2023 waren. Waar het brede publiek artificiële intelligentie tot voor kort nog zag als een term uit SF-films, maakt zowat iedereen er intussen gebruik van. Gaande van ludieke apps die een Barbie-versie van onszelf creëren tot toepassingen die ons leven echt eenvoudiger maken. De hype mag ons natuurlijk niet verblinden voor de risico’s, zoals het feit dat mensen vaak zonder nadenken gevoelige informatie aan AI toevertrouwen. Organisaties moeten zich hiertegen beschermen.

Wat Chat GPT vandaag doet, is slechts een fractie van wat mogelijk is met een meer geavanceerd AI-systeem. In de praktijk kunnen we drie niveaus van AI onderscheiden. Machine Learning helpt vooral bij taken die herhalend zijn. Opdrachten waarbij op zoek wordt gegaan naar specifieke objecten en die in een hoge frequentie snel moeten worden uitgevoerd. Gaan we een trapje hoger, dan spreken we van Machine Intelligence. Hierbij wordt Machine Learning uitgebreid met dieper inzicht, en het begrijpen van context. Hier verschijnt ook de term “Artificial General Intelligence” of AGI.

Het hoogste niveau is Machine Super Intelligence. Een AI-systeem dat zichzelf kan verbeteren, zou zijn eigen intelligentie kunnen vergroten en daardoor nog efficiënter worden in het verbeteren van zichzelf. Dat veroorzaakt een exponentiële curve van intelligentie die de capaciteiten van ons menselijke brein ver overstijgt.

Om het verschil tussen Machine Learning en Machine Intelligence te begrijpen, moet je ChatGPT eens het volgende vraagstuk voorleggen. “Ik rijd met mijn fiets op een brug boven een vallei vol nagels; ga ik een lekke band krijgen?” Volgens ChatGPT is het risico op die lekke band “aanzienlijk” en over het algemeen is die rit zelfs “geen goed idee”. De tool is heel goed in het herkennen van woorden, maar heeft nog veel moeite om de context van die woorden te begrijpen. Het systeem slaagt er dus niet in om uit eigen beweging te bevatten dat de brug boven de nagels hangt en ons veilig naar de overkant brengt. Het kan de brug niet “visualiseren” zoals een menselijk brein dat doet.

Chat GPT niet zonder risico

Context dus, dat is wat AI op het niveau van Machine Intelligence onderscheidt van Machine Learning. Het betekent ook dat ChatGPT z’n beperkingen heeft en we goed moeten beseffen dat de tool geen magische oplossing is.

Dat brengt ons bij de risico’s van dergelijke AI-systemen in de bedrijfsomgeving. Aan de ene kant moet je altijd voor ogen houden dat een tool de context van je vraag misschien niet begrijpt en foutieve antwoorden kan genereren. Aan de andere kant bestaat het risico dat mensen hun vraag daardoor zodanig gaan verfijnen dat ze informatie delen en AI dingen aanleren die zelfs hoogst vertrouwelijk waren. Denk aan broncode of geheimen die binnen de virtuele bedrijfsmuren moeten blijven. Uiteindelijk is Chat GPT een open, ongecontroleerd intelligentiemodel dat die data gretig zal gebruiken om bij te leren.

Het gebruik van AI in de organisatie dan maar verbieden? Dat is dan weer een brug te ver. Enerzijds omdat je zo alle mogelijkheden van deze fascinerende technologie misloopt en je moeite zal hebben om in het spoor van de concurrentie te blijven. En anderzijds omdat veel medewerkers het dan wel met hun mobieltje of ongecontroleerde werkstations zullen doen, en je zo helemaal geen controle meer hebt over wat er met je bedrijfsdata gebeurt.

We hoeven AI ook helemaal niet als een bedreiging te beschouwen. Uiteindelijk zijn de meeste tools met de beste bedoelingen ontwikkeld. Wel moeten we alert blijven en genoeg bescherming voorzien tegen misbruik door kwaadwillende figuren. Gelukkig kan AI ons ook daarbij helpen …

Bescherm je assets met Machine Intelligence

Stel dat een van je medewerkers op het punt staat om gevoelige informatie via e-mail te delen of aan een AI-tool zoals ChatGPT toe te vertrouwen. Zou het dan niet geweldig zijn als AI dit kan voorkomen of de werknemer tenminste bewust maakt van het feit dat een tekst of prompt mogelijk belangrijke data of broncode bevat? Gelukkig is dat al mogelijk. Sterker zelfs, op dit vlak hebben we al de stap gezet van Machine Learning naar Machine Intelligence: met AI-gestuurde bescherming die de werking van het menselijk brein nabootst en de context van een transactie of van inhoud zoals een tekst of afbeelding begrijpt.

Een voorbeeld: als je medewerkers een eigen toegangskaart hebben ter identificatie van zichzelf op het bedrijfsterrein, dan wil je niet dat ze een foto van die kaart met derden delen. AI kan de kaart in dat geval op basis van visuele kenmerken herkennen. Zelfs als de foto van mindere kwaliteit is, weet het systeem net zoals ons menselijke brein verbanden te leggen en de kaart te identificeren. Hierdoor kunnen we het delen van zulke afbeeldingen tegenhouden, zodat ze niet kunnen worden nagemaakt.

Hetzelfde geldt voor kredietkaarten, screenshots van applicaties, broncode en andere gevoelige data. De technologie leert bovendien bij en kan er zo voor zorgen dat niets door de mazen van het net glipt. Voor organisaties is dit een echte gamechanger, omdat werknemers zo de vrijheid kunnen krijgen om nieuwe tools te gebruiken om efficienter te zijn, terwijl de risico’s beperkt blijven.

Klaar voor de toekomst

Wat dit jaar een innovatie was, zal vanaf 2024 wellicht business as usual zijn. AI verdwijnt niet meer en in de komende maanden gaan er alleen maar nieuwe toepassingen verschijnen. We staan aan de vooravond van een nieuw tijdperk dat onze business een boost zal geven en onze manier van werken voor eeuwig zal veranderen. Het wordt geweldig om al die mogelijkheden te verkennen en na te gaan hoe ze onze bedrijfsvoering gaan versterken.

Maar in een tijd waarin alles razendsnel evolueert, is het ook belangrijk om stil te staan bij de risico’s en de ethische kant van het verhaal. We moeten even pauzeren en nadenken hoe we onze gebruikers van vangrails voorzien waarbinnen mensen AI-toepassingen op een veilige en verantwoorde manier gebruiken. Eén ding is zeker: met onze legacy tools gaan we het niet meer redden …

Wil je graag meer weten over de AI-gestuurde databescherming van Netskope? Neem dan hier een kijkje of bezoek ons op de ISACA-conferentie in Bussum bij Amsterdam.

Lees ook:

Gerelateerde berichten...