4min Ondernemen

AP en RDI: Toezicht AI-systemen moet snel geregeld worden

AP en RDI: Toezicht AI-systemen moet snel geregeld worden

In het toezicht op kunstmatige intelligentie (AI) moet samenwerking tussen toezichthouders voorop staan. Dat schrijven de Autoriteit Persoonsgegevens (AP) en de Rijksinspectie Digitale Infrastructuur (RDI) in een advies aan het kabinet.

Dat moet volgens de AP en RDI gebeuren met voldoende menskracht en budget dat op tijd beschikbaar is. “Zodat zij op tijd kunnen beginnen aan hun taken, zoals voorlichting en handhaving”, aldus de instellingen in het advies.

Naast de AP en de RDI deden alle twintig andere toezichthouders die mogelijk een rol gaan spelen in het toezicht op AI mee aan de samenstelling van het advies. Met deze gezamenlijke visie over hoe het nationale AI-toezicht geregeld moet worden, lopen Nederlandse toezichthouders voorop in Europa.

AI-verordening

Vorige maand stemden de Europese ministers in met de AI-verordening: de eerste uitgebreide wet over kunstmatige intelligentie ter wereld. Dit regelt dat AI-systemen met een hoog risico alleen aangeboden en gebruikt mogen worden als ze aan strenge producteisen voldoen. Die systemen krijgen dan een zogeheten CE-markering, zoals ook al jaren verplicht is voor bijvoorbeeld liften, mobiele telefoons en speelgoed.

De AP en de RDI vinden dat het toezicht op AI zoveel mogelijk moet aansluiten bij het al bestaande reguliere toezicht. Het toezicht op AI-producten met een hoog risico die nu ook al een CE-markering nodig hebben, kan hetzelfde blijven. De Nederlandse Voedsel- en Warenautoriteit (NVWA) blijft bijvoorbeeld speelgoed keuren, ook als er AI in verwerkt zit. En de Inspectie Gezondheidszorg en Jeugd (IGJ) gaat ook toezichthouden op de AI in medische apparaten.

RDI; Samenwerking is de sleutel

Angeline van Dijk, inspecteur-generaal van de RDI: “Samenwerking is de sleutel, daar waar het gaat om concentratie van kennis en coördinatie in uitvoering. Effectief toezicht met oog voor innovatie kan alleen ontstaan als betrokken toezichthouders samenwerken met de ontwikkelaars en gebruikers van risicovolle AI. En marktpartijen dat onderling ook doen. Bedrijven en organisaties kunnen samen met de RDI verkennen of ze aan AI regelgeving moeten voldoen. En hoe ze dat kunnen realiseren. De inzet van de RDI bij de regulatory sandboxes, een soort broedplaatsen voor verantwoorde AI-toepassingen, is daar een uitstekend voorbeeld van. En dit advies is daarbij een belangrijke mijlpaal.”

De instellingen adviseren dat het toezicht op AI-toepassingen met een hoog risico waarvoor nu nog géén CE-markering verplicht is, grotendeels bij de AP komt te liggen. Het maakt daarbij niet uit in welke sector die systemen draaien. Van onderwijs tot migratie en van werkgelegenheid tot rechtshandhaving; de AP zou hier de markttoezichthouder moeten zijn.

Een aantal zaken zijn dringend. Het benoemen van de grondrechtentoezichthouders, die de toezichthouders voorzien voor het College voor de Rechten van de Mens (CRM) en de AP. Ook de instanties die moeten beoordelen of AI-systemen aan Europese standaarden voldoen moeten er snel komen. De toezichthouders vragen het kabinet snel te besluiten deze toezichthouders aan te wijzen, zodat zij op tijd kunnen starten met voorlichting, handhaving en praktische voorbereiding. Zo is het verbod op sommige vormen van AI waarschijnlijk al in januari 2025 van toepassing. De toezichthouders stellen voor dat de AP verantwoordelijk wordt voor het toezicht op deze verboden.

Uitzonderingen

De toezichthouders stellen 2 uitzonderingen voor: wat betreft de financiële sector zullen de Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) het markttoezicht op zich nemen, de Inspectie Leefomgeving en Transport (ILT) en de RDI voor de kritieke infrastructuur. Verder moet het markttoezicht op AI-systemen die worden gebruikt ten behoeve van de rechtspraak, zodanig vorm krijgen dat de onafhankelijkheid van rechterlijke autoriteiten is gewaarborgd.

Het is belangrijk dat ook andere lidstaten snel toezichthouders aanwijzen, zo stellen de organisaties in het advies. Voor grensoverschrijdende en grote AI-systemen is namelijk samenwerking nodig tussen toezichthouders uit de lidstaten en met het nieuwe Europese AI Office. Zij gaan toezicht houden op grote AI-modellen die bijvoorbeeld ten grondslag liggen aan ChatGPT.

AP-voorzitter Aleid Wolfsen: ‘”De markttoezichthouder gaat erop toezien dat op de markt gebrachte AI ook echt voldoet aan eisen op het gebied van bijvoorbeeld het trainen van AI, transparantie en menselijke controle. Dat vereist veel specialistische kennis en kunde, en het is efficiënt als die gebundeld is. Belangrijk is ook dat de AP dan het overzicht heeft: de bedrijven die zulke AI ontwikkelen, doen dat vaak niet alleen voor één sector. Samenwerking met sectorale toezichthouders is daarbij cruciaal, want zij hebben ook goed zicht op AI-gebruik in bijvoorbeeld het onderwijs of door werkgevers. We gaan snel aan de slag om die samenwerking op te zetten.”

Lees ook: