Meerderheid Kamer voor meldplicht algoritmen overheidsinstanties

ChatGPT

Overheidsinstanties die gebruik maken van algoritmen moeten dit eerst melden bij een toezichthouder. Dat vindt een meerderheid van de Tweede Kamer.

Het gaat om alle overheidsinstellingen die algoritmen inzetten voor besluitvorming. Het voorstel was afkomstig van D66 en CDA.

De indienende partijen vinden dat een meldplicht moet zorgen er geen wildgroei gaat ontstaan in ontwikkeling en gebruik van algoritmen.

Weinig zicht

De beide partijen stellen dat er tot nu toe te weinig zicht is op wie welke algoritmes gebruikt en voor welk doel. Daardoor kunnen discriminatie en willekeur ontstaan en dat moet worden voorkomen.

De Kamer reageert daarmee op een reeks van onderzoeken en berichten waaruit bleek dat algoritmen discriminatie in de hand kan werken.

Naast discriminatie speelt ook een rol dat vaak niet duidelijk is op basis van welke criteria de algoritmen worden ingezet. Dit kan bijvoorbeeld zorgen dat burgers zonder ergens van verdacht te zijn wel onder de loep van de overheid liggen.

De motie stelt dat de inzet van algoritmes en de onderliggende databestanden het risico van ongelijke behandeling en uitsluiting met zich mee kan brengen. Momenteel heeft de  regering geen goed zicht op de ontwikkeling en inzet van alle algoritmes door overheden en overheidsinstanties.

 

Toezicht

Vorig jaar sprak de Tweede Kamer zich ook al uit voor onafhankelijk toezicht op algoritmes. Het kabinet is bezig met voorbereiding van een wetsvoorstel.

Dit gebeurt op basis van een onderzoeksrapport dat is opgesteld in opdracht van het ministerie van Buitenlandse Zaken. Daaruit blijkt dat overmatig gebruik van algoritmes en Big Data kan leiden tot schending van grondrechten van burgers.

Vooral beslissingen zonder menselijke tussenkomst vormen een groot risico. Het kan leiden tot onrechtvaardigheid, willekeur en zelfs rechtsongelijkheid. Verder tast het de pluriforme pers en dus ook het recht op informatie van burgers aan. De samenstellers roepen op tot actie.

 

Reikwijdte

Een van de voornaamste problemen is dat er een gedetailleerd beeld van burgers en hun leven ontstaat door gebruik van algoritmes. Dit schendt bijvoorbeeld het recht om vergeten te worden.

Het rapport haalt rechtspraak aan van het EHRM, het Europees Hof voor de Rechten van de Mens. Daarin staat dat vooral datasurveillance met Big Data en IoT inbreuk kunnen maken op het recht op privacy. Dit geldt voor zowel de privéomgeving als in publieke ruimtes, bijvoorbeeld in smart cities.

Zo bleek vorig jaar dat de sollicitatierobot van Amazon, die sinds 2014 in dienst was van het bedrijf, de laan werd uitgestuurd. De bot bleekt vrouwen te discrimineren.

Het systeem werkte met kunstmatige intelligentie en moest de zoektocht naar medewerkers vergemakkelijken. Zo kon het automatisch cv’s van de vele kandidaten die het bedrijf per vacature krijgt, automatisch doornemen. Vervolgens werd een aantal sterren toegekend. De beste kreeg de meeste sterren.

Saillant detail is dat de geconstateerde discriminatie van vrouwen werd aangeleerd door Amazon zelf en de ongelijkheid in de positie van mannen en vrouwen in de tech-sector.

 

Patroon

Volgens de bronnen van Reuters werkte het systeem op zich goed. Het probleem zat alleen in het feit dat ze de kunstmatige intelligentie lieten werken met patroonherkenning en op basis daarvan de cv’s liet bekijken. In de afgelopen tien jaar waren voornamelijk mannen aangenomen.

Gerelateerde berichten...