Navigeren door de AI-wet: welke route voor verantwoorde AI neem je?

Man met kort haar en een baard, gekleed in een blauw pak en een wit overhemd, glimlachend voor een grijze achtergrond.
Navigeren door de AI-wet: welke route voor verantwoorde AI neem je?

Organisaties staan op een kruispunt als het gaat om het gebruik van data en analyses. Een verkeerde keuze kan zomaar leiden tot het overtreden van regelgeving, zoals de EU AI Act. Deze wet, de eerste uitgebreide AI-wet ter wereld, stelt strenge eisen en legt forse boetes op aan organisaties die de regels niet naleven.

Betekent dit dat AI-gebruik nu minder interessant is? Zeker niet. AI biedt nog steeds volop kansen, mits het op een verantwoorde manier wordt ingezet.

Het verkeerde pad verkennen

Toen ChatGPT populair werd, duurde het niet lang voordat velen ermee experimenteerden zonder de risico’s goed te overzien. Hoewel generatieve AI-tools nuttig zijn, blijft het belangrijk dat de output door mensen wordt gecontroleerd. Zo gebruikte een advocaat vorig jaar bijvoorbeeld door ChatGPT-gegenereerde, fictieve zaken in zijn pleidooi. Hoewel er lessen zijn geleerd, verplicht de EU AI Act, en toekomstige regionale wetten die volgen, organisaties nu om hun werkwijzen strikter te controleren.

Het juiste pad bewandelen

Net zoals de AVG (Algemene Verordening Gegevensbescherming) een wereldwijde standaard zette voor privacywetgeving, fungeert de EU AI Act als richtlijn voor AI-regelgeving. Gebruiksbeperking, menselijke controles en transparantie in de manier waarop AI-modellen worden opgebouwd, worden steeds belangrijker naarmate AI verder ontwikkelt.

De EU AI Act is een uitgebreid document van 300 pagina’s, dat op hoofdlijnen specifieke AI-toepassingen reguleert en nalevingseisen vaststelt van grote taalmodellen zoals ChatGPT. De regels voor verboden toepassingen, zoals AI-systemen die biometrische gegevens gebruiken om gevoelige informatie af te leiden, worden naar verwachting eind 2024 ingevoerd. De bredere regels, waaronder eisen voor transparantie eisen en verplichtingen om AI-modellen te testen, volgen in de zomer van 2025. Dit geeft organisaties de tijd om hun systemen en processen aan te passen en ervoor te zorgen dat ze aan de nieuwe eisen voldoen. Hoe pak je dat aan?

Drie stappen om compliant te blijven

1. Zorg voor een betrouwbare basis van gegevens

Zorg dat data, bedoeld voor AI-toepassingen, goed georganiseerd, beveiligd en toegankelijk is. Voer beveiligingsmaatregelen in en controleer regelmatig de kwaliteit van de gegevens. Ook zonder directe AI-plannen is het zinvol om een basis te leggen om in de toekomst eenvoudig op te schalen.

2. Ontwikkel een AI-beleid

Als er nog geen AI-beleid is, stel dan duidelijke richtlijnen op voor het verantwoord gebruik van AI. Het beleid moet beschrijven hoe vertrouwelijke informatie wordt beschermd en hoe er wordt voldaan aan wet- en regelgeving. Het betrekken van medewerkers zorgt ervoor dat zij bekend zijn met de afspraken en richtlijnen.

3. Onderzoek het AI-gebruik van leveranciers

Breng in kaart welke AI-tools leveranciers gebruiken en hoe deze worden toegepast. Controleer of deze toepassingen voldoen aan de wetgeving en werk samen met leveranciers die transparant zijn over hun AI-gebruik en deze regels naleven. Dit voorkomt mogelijke problemen en helpt om aan de regelgeving te voldoen.

De Europese AI Act heeft ingrijpende gevolgen en kan zorgen voor hoge boetes voor organisaties die de regels niet naleven. Organisaties die geen AI toepassen, vallen buiten de wet, maar het is belangrijk om voorbereid te zijn op de toekomst. Houd ook rekening met ontwikkelingen in andere landen, zoals de VS, waar naar verwachting nieuwe regels komen die van invloed kunnen zijn op de bedrijfsvoering. Organisaties staan hierbij voor een keuze welk pad ze willen inslaan om risico’s te minimaliseren en kansen te benutten.