3min Personeel

Kabinet werkt aan noodplan om foute algoritmes te stoppen

Kabinet werkt aan noodplan om foute algoritmes te stoppen

Het kabinet werkt aan een noodplan voor foute algoritmes. Dat plan is onderdeel van het discriminatieprotocol: een verzoek uit de Tweede Kamer.

Staatssecretaris Zsolt Szabó laat dit weten in antwoord op Kamervragen van Denk. Het noodplan moet zorgen dat de overheid fout werkende algoritmes snel kan stoppen. Aanleiding tot de vragen is een onderzoek van de Algemene Rekenkamer van oktober vorig jaar. Daaruit bleek dat de overheid wel veel AI gebruikt, maar niet goed op de hoogte is van de risico’s die eraan vastzit. De fractie van Denk stelde daarop vragen aan Szabó en wilde onder meer weten welke maatregelen hij hier tegen gaat nemen.

Antwoorden bevatten geen nieuwe maatregelen

De antwoorden op de brief bevatten geen nieuwe maatregelen. De staatssecretaris verwijst vooral naar bestaande Europese regelgeving rond AI, mensenrechtentoetsen, de AVG en verder ook het discriminatieverbod de toezichthouders op moeten letten. Volgens Szabó zijn er al tools genoeg om foute algoritmes te voorkomen. Intussen ligt er al wel een eerste versie van een groter discriminatieprotocol op tafel.

In dat protocol, dat hoort bij het Algoritmekader, zijn onder andere de lessen van en ervaringen met de toeslagenaffaire en DUO (Dienst Uitvoering Onderwijs) verwerkt. Het noodplan is daar een van. “Het kabinet investeert in vroegtijdige toetsing, maar mocht het ondanks alle voorzorgsmaatregelen toch misgaan, is het belangrijk om een werkwijze te hebben om de situatie te herstellen.”

De bedoeling is dat overheden het discriminatieprotocol gaan gebruiken bij instellen en bijstellen van hun eigen algoritmes. Een onderdeel ervan is het noodplan, waarmee je een algoritme die het niet goed doen kunt stoppen. Verder voorziet het protocol zich op herstel van de schade. “Onderdeel is het informeren van betrokkenen en zorgdragen voor adequate herstelprocedures”, aldus Szabó in de beantwoording van de Kamerbrief.

Niet alle algoritmes in het register

Knelpunt blijft wel dat niet alle AI-systemen registratie behoeven. Szabó meldt dat slechts vijf procent van de AI-systemen van de overheid momenteel in het openbare algoritmeregister staat. Het hoeft bijvoorbeeld niet als het bijvoorbeeld gaat om een experiment dat verder geen impact heeft op burgers of bedrijven. Registratie hoeft ook niet als de impact van een AI-systeem indirect is.

Het is straks wel verplicht om voor hoog-risico AI-systemen risico’s af te wegen onder de AI-verordening. Vooruitlopend op deze AI-verordening en de AI-systemen die niet als hoog risico bekend staan zijn er al verschillende instrumenten om een dergelijke risicoafweging te maken. Dat is bijvoorbeeld de Impact Assessment Mensenrechtenen Algoritmen (IAMA).

Volgens de staatssecretaris zijn veel overheden bezig het register te vullen, maar het inventariseren, beoordelen en registreren van AI-systemen vraagt tijd en capaciteit. Het is dus niet zomaar gebeurd.

Intussen probeert het ministerie van BZK overheden zoveel mogelijk aan te sporen om hun algoritmes in het register te zetten om nadelige effecten van foute algoritmes te voorkomen. “Er wordt ondersteund met verschillende instrumenten, zoals de handreiking algoritmeregister, templates van leveranciers, ondersteuning van een implementatieteam, zogenoemde aansluitsessies, een regiotour, een nieuwsbrief en artikelen met tips van organisaties die al eerder hebben gepubliceerd”, schrijft Szabó.

Tip:

  • ‘Experimenteren met AI noodzaak voor vooruitgang’