Een algoritme heeft meestal gelijk… alleen willen we dat niet altijd weten.
Human in the Loop is een begrip bij veel processen. De mens die de technologie aanvult, in de gaten houdt, zorgt dat er geen excessen plaatsvinden en het proces of algoritme ‘controleert’. Op dit moment worden al onze digitale medewerkers (algoritmen) bij overheden bijvoorbeeld onderbroken door ‘de mens’.
Automatische besluitvorming is immers verboden en door het onderbreken van processen door menselijke interactie geven we de mens een rol in de beoordeling, besluitvorming, bepaling en controle van het werk van de digitale assistent. De gedachte is dus dat een algoritme niet te vertrouwen is en de mens het beter weet. Maar is dat ook zo? En in welke rol is de mens dan essentieel?
Zelflerende digitale medewerkers
Omdat de meeste digitale assistenten die nu gebruikt worden regelgestuurd zijn, is controle vrij eenvoudig. Zijn de regels juist, dan werkt de robot ook goed. Sterker nog, door het eenmalig controleren van de ‘regels’ kan de uitkomst alleen verrassend zijn als de input (data) niet goed of onvolledig is. Datakwaliteit bepaalt momenteel in hoge mate de uitkomst van een robot. Dus zijn de data op orde en kloppen de regels, dan is het toezicht op de digitale medewerker eigenlijk niet meer nodig.
Maar wat als digitale medewerkers (algoritmen) zelflerend worden door het gebruik van AI? Dat betekent interpretaties van tekst, beeld, spraak of omgeving. Sensoren in een auto of telefoon werken niet anders en gebruiken deze input als data voor het nemen van beslissingen. En op basis van eerdere ervaringen kunnen daar conclusies aan verbonden worden die ook een besluit kunnen beïnvloeden en het algoritme veranderen. Geen enkele Tesla-rijder of Apple-gebruiker die ik ooit sprak maakt zich er druk om. Maar als het om een overheidsbesluit gaat dat bepaalt of je een uitkering krijgt, nog kunt werken of vervolgd wordt dan is de aandacht er natuurlijk wel. De vraag is dan ook wat de rol van de Human in the Loop moet zijn.
Het controleren van een algoritme
Er zijn verschillende manieren om te kijken naar het controleren van een algoritme. Allereerst de input van de data: zijn deze compleet en unbiased. Dat klinkt simpel, maar is dat allerminst. Data zijn dus belangrijk, maar een ‘best effort’ en kritisch blijven nadenken is het beste wat we kunnen doen. Omdat dezelfde data ook gebruikt worden als mensen het werk uitvoeren, maakt het in principe geen verschil met de huidige manier van werken. Anders wordt het als we gaan werken met een zelflerend algoritme dat over het algemeen getraind is (of nog gaat worden) en vooraf richting meekrijgt. Maar dat ook tijdens het werk kan veranderen op basis van nieuwe inzichten. Anders dan regelgestuurde digitale medewerkers die statisch zijn, hebben zelflerende algoritmen dus continu aandacht nodig.
Omdat ook de meeste mensen niet vrij zijn van vooroordelen en meningen (wat voor de een unbiased is, is dat voor een ander vaak niet), wordt dit zeer lastig, zo niet onmogelijk. Transparantie is een eerste stap, maar er zijn eenvoudigweg niet genoeg ‘Einsteins’ beschikbaar om effectief controle te houden. Vanwege de complexiteit en intensiteit van het toezicht lijkt er daarom een grote toekomst voor ‘controlebots’. Algoritmes die algoritmes controleren en voor de mens inzichtelijk maken hoe ze werken, veranderen en regels toepassen.
Maatschappelijk gewenst eindresultaat
Waar we als mens nog de meeste invloed op hebben is het gewenste resultaat. In hoeverre is het resultaat wel of niet verantwoord? Bijvoorbeeld: vinden we het aanvaardbaar dat als er 80% mannen solliciteren voor bepaalde functies er ook 80% mannen en 20% vrouwen worden aangenomen (gegeven dat de verdeling en kwaliteit van het aanbod tussen mannen en vrouwen niet verschilt).
Of moet dit 50/50 zijn en manipuleren we het algoritme zodanig dat dit de uitkomst wordt, omdat we vinden dat er evenveel mannen als vrouwen op de werkvloer moeten zijn? Of is er een inhaalslag te maken en moet 100% van de aangenomen kandidaten vrouw zijn en zetten we de vacature alleen open voor vrouwen en manipuleren we dus bewust het eindresultaat door een ‘biased set’ van data (alleen vrouwen).
Kortom: de Human in the Loop zal voorlopig nog wel even blijven, maar vooral een verstorende werking hebben op de werking van algoritmen om het eindresultaat ‘maatschappelijk gewenst’ te maken. De vraag die dan resteert is: Wie controleert de mens?
Meer weten? Neem contact op!