Augmented intelligence maakt de mens slimmer

Waarom AI alleen maar zal floreren met menselijk overzicht

Wie kent de verhalen niet over externe factoren die de resultaten van artificial intelligence (AI) negatief beïnvloeden? Denk aan een automatisch remsysteem in een auto dat in werking treedt bij een schaduw op het asfalt. Er is veel scepsis, maar desalniettemin maken steeds meer bedrijven gebruik van AI om saaie en tijdrovende taken te automatiseren en processen te stroomlijnen. Om het potentieel van AI te benutten, moeten we de kracht van mens en machine combineren. Een pleidooi voor augmented intelligence.

Aan het technologiewoordenboek kan een nieuwe term worden toegevoegd: augmented intelligence. Hiermee bedoelen we dat AI complementair is aan de mens. Het vormt zich als een schil om de mens heen, voorziet hem of haar van relevante informatie op het juiste moment, maar neemt niet zelf de beslissing. Want voor een goede beslissing is vaak menselijke intuïtie nodig.

 

Van achteruitkijken naar voorspellen

We komen uit het tijdperk van BI, waarin we hooguit konden terugkijken in de data en zelf als mens op basis van die historie een voorspelling maakten. Naarmate de technologie voortschrijdt wordt het steeds eenvoudiger om vele verschillende databronnen te combineren en in samenhang te analyseren. Daardoor slagen AI-algoritmen er steeds beter in om vooruit te kijken en voorspellingen te doen.

Een voorbeeld is het algoritme dat radiologen gebruiken om kanker op een CT- of MRI-scan te herkennen. Het algoritme is specifiek getraind voor een bepaald doel, waardoor het beter dan een radioloog kanker kan detecteren. Het is echter niet getraind om andere aandoeningen te herkennen. En hoewel een beeldherkenningsalgoritme meer gevallen opspoort dan een goed getrainde radioloog, zit het er wel eens naast. Moeten we dan de beoordeling van scans voortaan volledig overlaten aan algoritmen? Nee. Want in de praktijk kunnen patiënten het veel beter accepteren wanneer een radioloog een beginnende kanker heeft gemist, dan wanneer ze weten dat ze ten prooi zijn gevallen aan de vooroordelen in een algoritme. Daarom zetten ziekenhuizen dergelijke algoritmen soms wel in ter ondersteuning van de radioloog, maar zeker niet als vervanging.

 

Vertrouwen is cruciaal

Dit voorbeeld laat zien dat AI heel goed het werk van mensen kan ondersteunen, maar zodra algoritmen de mens buitenspel zetten, gaat het al snel ten koste van het vertrouwen. Denk aan de discussies over de autonome auto. Onderzoek heeft aangetoond dat het aantal ongelukken met een factor tien kan dalen als alle auto’s autonoom rijden, maar de publieke discussie wordt gedomineerd door de vraag voor wie de auto kiest als een aanrijding niet te vermijden is: een oude vrouw of een kind. Een ander voorbeeld is de aanvraag voor een lening bij een bank. Hoe reageren we als we die lening niet krijgen omdat een algoritme het verzoek afwijst? Waarschijnlijk accepteren we dat minder gemakkelijk dan wanneer we worden gebeld door een mens die beargumenteerd aangeeft waarom het beter is je nu niet nog dieper in de schulden te steken.

 

Data governance strategie

Dit is precies waarom AI niet zozeer een technologisch vraagstuk is, maar meer een vertrouwensvraagstuk. En daarmee dus een data governance vraagstuk.

Het woord data governance heeft de laatste jaren een AVG-bijsmaak gekregen. Bij het woord denken we direct aan wet- en regelgeving, aan verplichtingen en verboden. Maar data governance is veel meer dan dat. Het gaat er vooral om dat we data kunnen vertrouwen. Wat weten gebruikers eigenlijk van de data die hun bedrijf verzamelt en wellicht zelfs van externe bronnen binnenhaalt? Is die data volledig, juist en actueel? Of moet de data eerst nog worden opgeschoond voordat die kan worden gebruikt?

Om dit vraagstuk uit handen van gebruikers te nemen, is het belangrijk om een data governance strategie op te zetten en na te leven. Hierbij zou bijvoorbeeld het opzetten van een datacatalogus kunnen helpen: alle data in de catalogus is gecontroleerd en te vertrouwen. Het kan ook helpen om per sector afspraken te maken. Zo hanteert een medisch onderzoek consortium het FAIR-principe: data moet Findable, Accessible, Interoperable en Reusable zijn. Voor ieder van die vier begrippen is een definitie gemaakt, zodat er duidelijke criteria zijn waar de onderzoekers die nieuwe data inbrengen zich aan moeten houden.

 

De menselijke factor

Het kerndoel van AI is dat het mensen helpt sneller betere beslissingen te nemen. En dus is het logisch dat de onderliggende data te vertrouwen moet zijn. Zonder dat vertrouwen zullen gebruikers het advies van AI immers niet opvolgen, waardoor alle pogingen die bedrijven nemen om een digital first-organisatie te worden, zullen mislukken.

Daarnaast is het essentieel dat AI altijd wordt gecombineerd met de menselijke intuïtie. Want hoeveel databronnen je ook in je analyse meeneemt en hoe goed de voorspelling van een algoritme ook is, uiteindelijk wegen altijd menselijke factoren mee. Als een algoritme voorspelt dat de succeskans van een kankerbehandeling lager is dan tien procent, dan zal een oudere patiënt op advies van zijn arts wellicht kiezen voor niet behandelen, terwijl een jonge moeder in gesprek met precies diezelfde arts toch voor de strohalm kiest. In andere omstandigheden nemen we nu eenmaal op basis van dezelfde data een andere beslissing. Dit besef is cruciaal voor organisaties die succes willen boeken met AI.

Elif Tutuk is senior director van Qlik Research

 

 

Gerelateerde berichten...

X