Deel 2: Een verhaal van hoop
In het eerste deel van dit artikel – december 2019 – beschreven we de zorgen die bestaan omtrent het gebruik van AI. Waarschuwingen als van Stephen Hawking blijven rondzingen in ons achterhoofd. Maar als we open met elkaar blijven discussiëren over de impact van AI op onze maatschappij, moeten we die zorgen de baas kunnen worden.
Deel 1 van dit tweeluik sloot af met vijf richtlijnen omtrent het gebruik van AI:
- AI moet mensgericht zijn en sociaal voordeel opleveren,
- de beslissingen die AI neemt, moeten eerlijk zijn,
- deze beslissingen moeten verklaarbaar en transparant zijn,
- de acties moeten veilig zijn
- de aanbieder moet verantwoordelijk zijn voor de acties van AI.
Klinkt allemaal logisch, maar afgezien van de vele vragen die deze richtlijnen oproepen, is de volgende stap – het ontwikkelen van beleid op basis van deze richtlijnen – eveneens allerminst gesneden koek. We zouden een lijst met acties kunnen samenstellen die van toepassing zijn op specifieke AI-projecten. Dat is duidelijk en goed te communiceren. Aan de andere kant is checklistgedrag het tegenovergestelde van het daadwerkelijk nemen van verantwoordelijkheid. Wat AI betreft zijn checklijstjes een broeiplaats voor fouten.
Zeurende stem
Met checklijsten leg je die zeurende stem in je achterhoofd – ‘Is dit nu echt wel het juiste om te doen?’ – het zwijgen op. Terwijl we die zeurende stem juist meer volume moeten geven, omdat het ons ervan weerhoudt fouten te maken. In plaats van het maken van beleid kunnen we de richtlijnen ook benaderen vanuit de dilemma’s die ze oproepen.
Een veel gehoorde uitspraak over AI is dat de mens altijd de regie moet behouden, wat in de eerste richtlijn ‘mensgericht’ wordt genoemd. Dat wil je zeker wanneer het bijvoorbeeld gaat over bewapende autonome drones in oorlogssituaties. Maar als we ook in het bedrijfsleven aan die overtuiging willen vasthouden, wordt de inzet van AI op grote schaal onmogelijk. Je kunt onmogelijk én als mens de regie houden én schaalbaar zijn.
Een andere interpretatie van ‘mensgericht’ is dat AI het menselijk vermogen – hoe wij werken en hoe wij dat kunnen verbeteren – moet vergroten. Het dilemma hier is dat we daarmee weinig of geen oog hebben voor de optie van het volstrekt nieuwe waar AI mee kan komen. Toen Google met Alpha Go kwam en later met Alpha Zero werd het spel Go bijzonder succesvol door de AI gespeeld. Alpha Zero kwam met zetten waarvan het doel pas twintig zetten later duidelijk werd. De AI kwam met niet-menselijke strategieën. Dus wat willen we? Willen we menselijke capaciteiten en de menselijke manier van werken perfectioneren en versnellen, of staan we op voor volstrekt nieuwe manieren om problemen op te lossen?
Zwerm-AI
We zijn het er allemaal over eens dat AI geen wetten mag overtreden. Alleen zijn de wetten met betrekking tot AI niet altijd duidelijk – zoals in het geval van gezichtsherkenning – of er is helemaal geen wet. En omtrent eerlijkheid is er voornamelijk onduidelijkheid. Wat in de ene cultuur voor eerlijk doorgaat, wordt in een andere cultuur heel anders ervaren.
Moeten we bij bepaalde beslissingen speciale omstandigheden laten meewegen, zoals iemand financiële situatie of iemands gezondheid? Ook vinden we allemaal dat AI niet bevooroordeeld mag zijn. Alleen, hoe verwijder je vooringenomenheid – bias – bij AI als de data die het gevoerd krijgt per definitie bevooroordeeld is?
Bovendien is er nog zoiets als wenselijke en ongewenste bias. Hoe ga je daarmee om? De keerzijde van bias is diversiteit. Met vele kleine stukje bias creëer je namelijk juist weer een diverse zienswijze.
Als een douaneambtenaar een lichte vorm van raciale profilering vertoont, is dat zonder meer vervelend en ontoelaatbaar. Maar binnen een functionele groep mensen zullen anderen dit gedrag corrigeren, wat de balans weer herstelt. Dit is wat we doen met zogeheten zwerm-AI. Als we duizend kleine algoritmen hebben die elk vanuit een iets andere invalshoek naar een bepaald probleem kijken, kunnen we kiezen voor een bepaalde oplossing die door de meerderheid wordt verkozen. Op die manier kan vooringenomenheid georganiseerd voor ons werken. Dit is innovatief concept waar nog maar weinig ruchtbaarheid aan wordt gegeven, maar dat zeker meer aandacht verdient.
Prioriteit
AI moet verklaarbaar, uitlegbaar en transparant zijn. Zelfs de AVG vraagt erom, maar in werkelijkheid moeten we ons afvragen of alles werkelijk uitlegbaar moet zijn. Zo speelt AI nu al een rol in het ontwikkelen van intellectueel eigendom, iets wat bedrijven willen beschermen. Volledige transparantie zou hetzelfde zijn als het IP overhandigen aan de concurrentie. Of wanneer AI voor fraudedetectie wordt ingezet, wil je de fraudeurs ook niet slimmer maken dan ze al zijn.
Met extreem geavanceerde mechanismen behaal je nauwkeuriger resultaten. Deze gecompliceerde leermethodes zijn alleen niet zo eenvoudig uit te leggen. Dus wat krijgt prioriteit? De betere uitlegbaarheid van minder nauwkeurige AI, of toch de betere resultaten van de minder gemakkelijk verklaarbare AI? Dat zijn relevante discussies die ook spelen op het gebied van beveiliging en veiligheid. Een technologieleverancier is altijd verantwoordelijk voor de technologie die hij op de markt brengt, maar hoe zit het wanneer systemen met verschillende AI’s met elkaar beginnen te communiceren? De vijf richtlijnen en de dilemma’s die ze oproepen, zouden bij ieder project opnieuw moeten worden besproken.
Robotwetten
Verantwoordelijkheid blijft een harde noot om te kraken als het over AI gaat. Toch moeten vragen over waar in welke situatie verantwoordelijkheden liggen eerst afdoende worden beantwoord, voordat AI ethisch verantwoord effectief kan worden ingezet en voordat we het kunnen opschalen. Het grondidee waar veel mensen naar verwijzen als het over ethisch verantwoorde robots gaat, zijn de drie wetten voor robots door Isaac Asimov.
Wet 1: Een robot mag een mens geen kwaad doen, of door inactiviteit toestaan dat een mens kwaad wordt gedaan.
Wet 2: Een robot moet de bevelen van mensen gehoorzamen, behalve wanneer dat conflicteert met de eerste wet.
Wet 3: Een robot moet zichzelf beschermen, zolang dat niet in strijd is met wet 1 en wet 2.
Hoe doordacht ze ook klinken, er kleven een paar problemen aan deze ethiek. Ten eerste gebruikte Asimov deze wetten als een literair instrument, waarbij deze regels in de meeste van zijn verhalen niet werken. Het tweede probleem is dat deze wetten zijn opgesteld in het Engels en dat vertalingen altijd dubbelzinnig kunnen uitpakken. Nee, er is een fundamentelere discussie nodig voor het creëren van een ethiek in onze AI’s.
De zin van het leven
Hoe dieper we die discussie voeren hoe dichter we komen bij de kern: te weten een set van principes over de betekenis van het leven. Het punt is dat iedereen anders denkt over wat de zin is van het leven. Onze filosofen denken er al vierduizend jaar over na, zonder echt concrete resultaten. De vraag wat ons leven betekent, wat ons doel is, moeten we stellen omtrent de simpele vorm van ‘leven’ die wij met AI creëren. Stel dat we AI creëren met een zekere mate van bewustzijn, welke betekenis willen wij geven aan dat ‘leven’?
Het eerste perspectief van waaruit we die vraag kunnen benaderen is dat van de maker. Daar kan dan uit naar voren komen dat AI mensen moet behagen. Vanuit dat perspectief moet de AI zich gedragen, het moet ‘nadenken’ over wat de mens zou doen en dat navolgen. Veel AI-experts twijfelen of dit zogeheten antropomorfisch ontwerp – het toekennen van menselijke kwaliteiten aan niet-menselijke bestaansvormen – wel het juiste perspectief is. Toch interacteren wij mensen anders met een robot die op onszelf lijkt, dan wanneer het eruitziet als een machine. Denk aan het Google Duplex experiment, waar de stem van de AI-assistent niet meer te onderscheiden is van een echte mensenstem. De meningen over wat het juiste pad is dat we moeten volgen met AI zijn sterk verdeeld.
Naast het antropomorfisch ontwerp zijn er ook voorstanders van het zogeheten ontwikkelingsperspectief. Dat is gestoeld op humanistische principes. Volgens humanisten is de zin van het leven jezelf worden en een zo groot mogelijk deel van je potentieel vervullen. Vertaald naar AI komen we erg dicht bij algemene kunstmatige intelligentie. Een bewustzijn met keuzevrijheid die in een zo breed mogelijke context in alle situaties het juiste doet.
In het perspectief van voogdijschap is de zin van het leven van AI om te zorgen voor het grotere goed. De totale mensheid of de totale aarde. Of het biologische perspectief, waarbij de zin van het leven is ervoor te zorgen dat de soort voortleeft. Toegepast op AI zou AI zichzelf dan in stand moeten kunnen houden. Tot slot is er de overtuiging dat het leven helemaal geen betekenis heeft. Vooralsnog is dit de meest dominante zienswijze met betrekking tot AI, simpelweg omdat we de weg naar een meer ambitieuze benadering van dit onderwerp nog niet hebben gevonden.
Training
Dit is een verhaal van hoop. Uit een onderzoek van tijdschrift Forbes kwam het volgende naar voren. Van de bedrijven die zichzelf zien als leiders op het gebied van AI, investeert 92 procent tijd en geld om hun medewerkers te trainen in het ethisch denken over het gebruik van AI. Van de bedrijven die zichzelf geen leiders op dit gebied noemen, investeert toch nog 48 procent in ethische bewustwording. Bepaald geen slechte basis om de discussie over AI en de ontwerpprincipes te starten.
Uiteindelijk zijn deze gedachtenspinsels en discussies niet alleen van toepassing op de wereld van technologie en AI. In wezen gaat het over wat wij als mens en als samenleving belangrijk vinden. Dus deze discussie – die we het komende decennium uitvoerig zullen voeren – is in meer dan één opzicht waardevol. Wie weet wat we nog zullen ontdekken?
Dit artikel is geschreven naar aanleiding van de keynote op 4 november tijdens het Gartner ITxpo symposium in Barcelona: ‘Artificial intelligence and ethics: What you need to do today and tomorrow’, gepresenteerd door Frank Buytendijk.