Deel 1: De zorgen in beeld
Stephen Hawking vreesde dat de ontwikkeling van kunstmatige intelligentie het einde van de mensheid zou kunnen betekenen. AI zou zichzelf in een steeds groter tempo opnieuw ontwerpen en de langzaam ontwikkelende biologische mens zou op termijn worden vervangen. Zo ver hoeft het niet te komen, zolang we maar een open discussie blijven voeren over de ethiek van AI en daar lessen uit trekken.
Vóórdat het internet, de smartphones en de social media werden geïntroduceerd, is er geen enkele discussie gevoerd over hoe dit allemaal onze maatschappij zou beïnvloeden. Die ontwikkelingen zijn ons als het ware overkomen. Ze hebben een enorme impact gehad op ons gedrag. In de begindagen van big data en de daaruit voortvloeiende privacy-issues is er weliswaar enige discussie geweest, maar te laat en te beperkt. Nu proberen we daar met GDPR en andere regelgeving nog iets van te redden. Over AI voeren we gelukkig al wel discussies, in de hoop dat we het goed doen voordat we kritische fouten gaan maken en het te laat is. Wat zijn de ethische consequenties van het gebruik van AI?
Roep om regelgeving
De implementatie van AI neemt snel toe. Uit onderzoek van Gartner blijkt dat 19 procent van de organisaties wereldwijd al AI toepast, en 25 procent zal dit het komende jaar gaan doen. Momenteel is de discussie over de ethiek van AI actief gaande in de hele industrie. Medewerkers van digitale giganten sturen open brieven naar hun management, waarin ze hun zorgen uiten over bepaalde AI-projecten met het dringende verzoek deze projecten te beëindigen. Ook klinkt de roep afkomstig van zakelijke leiders en technologieleiders om regelgeving rondom het gebruik van AI steeds luider. Uit consumentenonderzoek komt naar voren dat ook consumenten AI-implementaties erg snel vinden gaan. Kortom, er is wijdverbreide zorg omtrent de gevolgen van het gebruik van AI. Zo heeft de stad San Francisco onlangs het gebruik van gezichtsherkenningstechnologie door de politie verboden, omdat het tot teveel onbedoelde gevolgen leidt.
Ontwerpers
Tot nog toe was ons wereldbeeld heel eenvoudig: we hebben levende wezens en we hebben dingen; de levende wezens bewegen en de dingen worden verplaatst Van de levende wezens staat de mens bovenaan de voedselketen. We hebben bewustzijn en een morele keuzevrijheid. Wij leven in de veronderstelling dat wij de wereld regeren. In die perceptie komt nu een kleine kreukel, omdat er een nieuwe categorie aan deze vergelijking wordt toegevoegd: dingen met het vermogen om in een bepaalde context eigenmachtig te handelen. Hiervoor ontbreekt het sociale kader en we weten niet wat het betekent in juridische of ethische zin. Hoe definiëren we bijvoorbeeld de verantwoordelijkheid voor AI? De gebruikelijke zienswijze is dat de gebruikers van een technologie verantwoordelijk zijn voor hun acties. Maar bij een Google-zoekopdracht is dat nog maar de vraag, omdat ook adverteerders, de locatie van de opdrachtgever, zoekresultaten van anderen en nog meer factoren de interactie beïnvloeden. Als we een stapje in de toekomst zetten, kunnen we ons voorstellen dat we niet meer uitsluitend een gebruikersrelatie hebben met robots, maar dat we met ze interacteren, zoals we dat zouden doen met ieder ander wezen. Alleen het gebruik van de term ‘wezen’ impliceert dat we de keuzevrijheid van een ding herkennen.
Verantwoorde AI
Een andere zienswijze valt terug op de oorzaken van verandering van Aristoteles, waarbij hij stelde dat elk voorwerp een concretisering is van de ideeën van de ontwerper. Met andere woorden, de AI weet niet wat het doet, want het heeft een ingebouwde morele code. De ontwerper draagt op zijn minst een deel van de verantwoordelijkheid over hoe een specifieke technologie functioneert. Maar hoe zit het dan met dat experiment van de Tay Twitter-bot van Microsoft? De ontwerpers hadden de beste bedoelingen, maar kort nadat een paar trollen op internet de Twitter-bot voedde met racistische taal, ging Tay daar vrolijk in mee. Binnen 24 uur nadat Tay online was gegaan, moest Microsoft het alweer offline halen. Wie was daar verantwoordelijk voor? Bedenk daarbij dat een trol ook een stukje techniek is. Tay bewoog in een onbedoelde richting. Wat de vraag oproept: hoe creëren we verantwoorde AI? Behandelen we het als een huisdier? Dat heeft zijn eigen gedrag, maar de eigenaar blijft verantwoordelijk. Of behandelen we het als een kind? We voeden het naar beste vermogen op, waarna het op eigen benen staat met zijn eigen verantwoordelijkheid. Of kunnen het concept van verantwoordelijkheid überhaupt wel toepassen op AI, zoals je dat ook niet kunt met betrekking tot een orkaan of een aardbeving? Wordt AI iets waartegen we ons kunnen verzekeren?
Richtlijnen
Allemaal vragen waarop nog geen eenduidige antwoorden bestaan. Eén ding is duidelijk: AI met een ingebouwde verantwoording op basis van uitgebalanceerde ethiek is nog heel ver weg. Vooralsnog richten we ons in de discussie op de ontwerpers. Zelfs als AI vanwege het zelflerende vermogen in een onbedoelde richting beweegt, moeten de ontwerpers de verantwoordelijkheid op zich nemen. Enkele technologieleveranciers zijn actief in het formuleren van hun principes over dit onderwerp, zoals Google, Microsoft, Salesforce, Telefonica en SAP. Dit wordt ook gedaan door diverse academische organisaties, op politiek en landelijk niveau en de IEEE. Als we deze aanzetten op een rij zetten, komen daar vijf richtlijnen uit naar voren: 1) AI moet mensgericht zijn en sociaal voordeel opleveren, 2) de beslissingen die AI neemt, moeten eerlijk zijn, 3) deze beslissingen moeten verklaarbaar en transparant zijn, 4) de acties moeten veilig zijn en 5) de aanbieder moet verantwoordelijk zijn voor de acties van de AI.
Zoals iedere richtlijn vereisen ook deze vijf de nodige discussie. Wat betekenen ze nu precies? Wie bepaalt er bijvoorbeeld wat eerlijk is? Het is zaak om binnen uw organisatie op basis van deze vijf richtlijnen beleid te ontwikkelen.
Het moge duidelijk zijn dat er genoeg zorgen zijn omtrent de ethiek van AI. Het tweede deel wordt meer een verhaal van hoop.
Dit artikel is geschreven naar aanleiding van de keynote op 4 november tijdens het Gartner ITxpo symposium in Barcelona: ‘Artificial intelligence and ethics: What you need to do today and tomorrow’, gepresenteerd door Frank Buytendijk.