Discriminerende algoritmes en chatbots aan banden in EU

AI

Discriminerende algoritmes en chatbots gaan in de EU aan banden. De Europese lidstaten hebben daarvoor een  wetsvoorstel aangenomen, de AI Act. In het wetsvoorstel staan afspraken rond basale eisen waaraan  AI-systemen in de EU moeten voldoen. De nieuwe wet moet vanaf eind volgend jaar gaan gelden.

Er komt een strenge keuring voor AI-programma’s die een risico lopen op discriminatie en misbruik. Die regels gelden vooral voor programma’s in medische apparatuur, ondersteunende  programma’s voor sollicitatieprocedures en rechtspraak. De bedoeling dat goedgekeurde programma’s veilig in gebruik zijn. Zo weten organisaties dat ze een eerlijk, goedwerkend AI-systeem gebruiken.

Makers van AI-systemen met een hoog risico en openbare instanties zijn volgens de nieuwe wet verplicht om deze activiteiten te registreren in een speciale EU-databank voor hoogrisico AI-systemen. Verder komt er een bepaling die gebruikers van AI-software voor emotie­herkenning verplicht om natuurlijke personen te informeren wanneer zij aan een dergelijk systeem worden blootgesteld.

Verboden en classificatie

In de wet komt ook een expliciet verbod op speelgoed met spraakassistentie of systemen met AI die burgers beoordelen. Er komt ook een verbod op gebruik van AI-systemen die de kwetsbaarheden van een specifieke groep personen uitbuiten. Deze bepaling is ook van toepassing op personen die kwetsbaar zijn vanwege hun sociale of economische situatie.

De classificatie van AI-systemen met een hoog risico krijgt in de nieuwe wet een extra laag bovenop de hoog-risico-classificatie. Daardoor kun je de laagrisicosytemen van de risicovolle goed van elkaar onderscheiden.

Veel van de voorschriften voor AI-systemen met een hoog risico zijn duidelijker en zo aangepast dat de uitvoering technisch haalbaarder en de naleving ervan makkelijker. Dit geldt bijvoorbeeld voor de kwaliteit van de data en de technische documentatie die kleine en middelgrote ondernemingen (kmo’s) moeten opstellen om aan te tonen dat hun AI-systemen met een hoog risico aan de voorschriften voldoen.

Aanbieders van AI-systemen krijgen in de nieuwe wet ook duidelijkere regels. In de wet staat duidelijker wat de verantwoordelijk­heden en rollen van verschillende actoren in de ketens, met name van aanbieders en gebruikers van AI-systemen. Bepalingen rond gegevens­bescherming, wetgeving in de financiële­diensten­sector. zijn nu ook duidelijker. Makers van deze systemen weten in het vervolg dus beter waar ze aan toe zijn.

Rechtshandhavers

Wat betreft het verbod op het gebruik van “realtime” biometrische systemen voor identificatie op afstand in openbare ruimten door rechtshandhavings­instanties, worden de doelstellingen duidelijker, waarvoor dit gebruik voor rechtshandhavings­doeleinden strikt noodzakelijk wordt geacht en waarvoor rechtshandhavings­instanties daarom bij wijze van uitzondering toestemming moeten krijgen. Die toestemming moeten, met passende waarborgen, vooral de noodzaak weergeven dat de vertrouwelijkheid van gevoelige operationele gegevens met betrekking tot hun activiteiten wordt gewaarborgd.

De AI ACT biedt ook toezichthouders duidelijkere regels met betere uitvoering tot gevolg. Verder kan het Europese conité voor artificiële intelligentie in het vervolg autonomer en met een sterkere rol aan de slag. Er komt ook een permanente subgroep die fungeert als platform voor een breed scala van belanghebbenden.

De Europese Commissie diende vorig jaar het wetsvoorstel al in. Nu de Raad instemt starten het Europees Parlement en de Europese Commissie verder met onderhandelen. Een definitief akkoord zou er volgens schatting uiterlijk in het najaar volgend jaar moeten liggen. Daarna moeten de individuele lidstaten de regels gaan inpassen.

Lees ook:

 

Gerelateerde berichten...