“De overheid en algoritmes moeten balanceren tussen fraude en discriminatie”

ChatGPT

De Dienst Uitvoering Onderwijs (DUO) maakt al geruime tijd gebruik van een algoritme. Dit, om fraude met subsidiefinanciering op te sporen. Uit onderzoek blijkt dat studenten met een migratieachtergrond opvallend vaak worden beschuldigd van fraude. Minister Dijkgraaf noemt de bevindingen verontrustend. En Kamerleden pleiten voor een algoritmeregister. En om een extern onderzoek naar het fraudebeleid van DUO.

Effectiever, zonder ongewenste effecten

Op de vraag of de overheid er alles aan moet doen om fraude te voorkomen, zullen de meeste mensen positief antwoorden. Gelijktijdig zal ook iedereen het ermee eens zijn dat discriminatie hierbij moet worden voorkomen. “Dit is het dilemma waar de overheid mee worstelt, wanneer zij algoritmes wil inzetten.” Dit stelt Johan de Jong, Vice President Consulting Expert, CGI Nederland.

“Het gebruik van algoritmes vereist een evenwicht tussen effectiviteit en het voorkomen van ongewenste effecten zoals discriminatie.” Algoritmes zelf veroorzaken echter niet het probleem, legt De Jong uit. “Maar gebrek aan transparantie, verantwoording en ethisch bewustzijn bij het ontwikkelen en gebruik hiervan vaak wel.”

Preventief toetsen en periodiek evalueren

Een algoritmeregister kan de transparantie en verantwoording bij het gebruik van algoritme bevorderen. En onafhankelijk toezicht kan helpen bij het borgen van een eerlijk en rechtvaardig proces. Hiernaast is het essentieel dat de overheid zelf maatregelen neemt om algoritmes veilig te kunnen gebruiken en ongewenste effecten, zoals discriminatie, te voorkomen. Zowel maatregelen tijdens de ontwikkeling als periodieke evaluatie en bijstelling tijdens het gebruik helpen hierbij. Door bij de ontwikkeling te zorgen voor een goede ethische basis en het voorkomen van vooringenomenheid kunnen ongewenste effecten worden voorkomen.

Ook is het van belang bij het trainen en testen van algoritmes een dataset te gebruiken die representatief is voor de diversiteit van de doelgroep. Op deze wijze worden ongewenste effecten, zoals oververtegenwoordiging van bepaalde bevolkingsgroepen in de selectie, preventief voorkomen. Door de werking tijdens het gebruik regelmatig te evalueren worden ongewenste patronen en onevenredige effecten ontdekt en kunnen algoritmes waar nodig worden bijgesteld. Uiteraard is het bij zo’n evaluatie ook van belang de juiste expertise te betrekken.

Maatschappelijk onrust voorkomen

Met deze maatregelen zorgt de overheid voor rechtsgelijkheid in het uitvoeringsproces en wordt voorkomen dat ze achteraf op de vingers worden getikt door de maatschappij en of de politiek. Gelijktijdig blijft de winst in effectiviteit door het gebruik van algoritmes behouden.

Gerelateerde berichten...