“AI krijgen we niet meer weg” – Ethiekprofessor Peter-Paul Verbeek

Peter-Paul Verbeek portret. Op de vleugels van Icarus

Zes jaar geleden verscheen Op de vleugels van Icarus van Peter-Paul Verbeek. In dat boek betoogt hij onder meer dat de menselijke moraal meebeweegt met de technologische ontwikkelingen. “Mensen geven vorm aan technologie, maar technologie ook aan mensen.”

Sinds het verschijnen van ‘Icarus’ is de digitale revolutie enorm snel verder gegaan. De afgelopen zes jaar hebben AI en machine learning de ethische discussie rondom techniek op scherp gezet. Ethics-by-design staat meer dan ooit op de agenda. Ook in zijn eigen praktijk wordt Verbeek omringd door AI. Als voorzitter van COMEST van UNESCO tracht hij wereldwijde ethische kaders te creëren waar regeringen hun wet- en regelgeving op kunnen afstemmen. “Daar worden delen van de wereld die normaal niet zo’n grote stem hebben in onze ethische beslissingen nu ook gehoord.”

Zijn er dan zulke grote verschillen?
Ja, toch wel. In de westerse wereld is het individu de basis van alles en gaat het vooral om autonomie, privacy, vrijheid. Het Aziatische en Afrikaanse kader richt zich eerder op de gemeenschap.

En de Amerikanen zeggen: Privacy is gone, get over it.
Wij hebben vaak China als angstbeeld – de staat die jouw gedrag stuurt – maar eigenlijk is het verschil met Amerika niet eens zo groot, alleen is daar geld de drijvende kracht. Dat zie je ook sterk in de AI-discussie: is er een Europees alternatief? Dat is de uitdaging die nu voor ons ligt. Hoe breng je het collectieve en het individualistische perspectief samen? Hoe behoud je jouw vrijheid, autonomie en privacy terwijl tegelijkertijd de gemeenschap goed gedijt?
Vorig jaar ging het op het Global Forum on AI for Humanity in Parijs alleen maar over China, Amerika en Europa. Het is bizar dat tweederde van de wereld niet eens op de kaart staat wat dit aangaat. Met COMEST proberen we een wereldwijd richtingskader te creëren. Geen beoordelingskader dat aangeeft wat goed is of fout, maar meer ‘welke waarden willen we laten bloeien of ondersteunen met behulp van technologie?’ Ethiek is niet de grenswachter maar eerder de begeleider van de verwevenheid tussen mens en techniek.

Verliezen we met AI niet de controle over onszelf?
Controle vind ik een te groot woord. In mijn optiek moeten we technologie benaderen als een soort partner waarmee we het zullen moeten doen. Het is gewoon ons lot dat wij inmiddels leven in een technische wereld. AI krijgen we niet meer weg. De meest zinvolle manier om ermee om te gaan is niet er grip op te willen hebben, maar te begrijpen wat die techniek doet met ons denken en met onze besluitvorming, kortom met de morele achtergrond van ons gedrag. Als we dat doorzien kunnen we er ook verantwoordelijkheid voor nemen door bijvoorbeeld die techniek te herontwerpen of maatschappelijke regelgeving aan te passen. Ook kunnen we de gebruiker kritisch maken, opvoeden en onderwijzen. Dus met de techniek zelf, de omgeving en de gebruiker heb je drie velden waarop je nog steeds invloed kunt uitoefenen.

Hoe zit het dan met algoritmes waarvan we niet meer weten hoe ze werken?
Wanneer het ontwerp losraakt van de ontwerper wordt techniek als het ware steeds menselijker. Je kunt op een gegeven moment de ouders van een kind niet meer verantwoordelijk houden voor het gedrag van hun kind. Dat geldt ook voor AI. Bij algoritmes die leren met datasets kunnen we verantwoordelijkheid nemen voor welke datasets we beschikbaar stellen. Er is zelfs al besloten om algoritmes een soort van persoonsschap te geven. Uiteindelijk moet je ook een algoritme kunnen aanklagen. Je zou hem uit de maatschappij moeten kunnen halen.

Gaan we dan niet te ver met ons geknutsel?
Af en toe wel. Die grens schuift steeds op. Het punt is dat er geen objectieve maat is van ‘tot hier en niet verder’. In de begintijd van de reageerbuisbevruchting was daar veel weerstand tegen, maar dit zijn we ons gaan toe-eigenen. Onze morele keuzes zijn niet alleen maar van onszelf, maar worden door de technologie beïnvloed. Het gaat erom we steeds weer opnieuw onze grenzen leren begrijpen. Met AI vervagen de grenzen tussen mens en techniek. Zijn onze keuzes nog wel echt onze keuzes? Wat betekenen actorschap of verantwoordelijkheid dan nog? Het idee dat alle verantwoordelijkheid per definitie bij de mensen ligt en niet bij de dingen moeten we gaan herijken. Het antwoord is dat je er met jouw denkraam en de voortschrijdende technieken vaak naartoe groeit.
Met AI boren we een nieuwe fase aan in het proces dat we als mens zijn aangegaan met de ontwikkeling van het schrift en later de boekdrukkunst. Je kunt bang zijn dat de techniek intelligenter wordt en dat het zal ontaarden in een strijd met de mens. Maar je kunt ook denken dat AI ons denken gaat veranderen. De wetenschappelijke revolutie na de uitvinding van de drukpers was ook bedreigend voor de bestaande orde van toen. In plaats van bang te zijn voor de dominantie van AI, zou ik mij eerder zorgen maken om de ingenieurs die lekker blijven doorontwerpen. Zij hebben grote invloed op het veranderen van ons denken, onze politieke processen en de manieren waarop we verantwoordelijkheid nemen. We moeten ons realiseren dat zij de nieuwe hoeders zijn van de moraal. Vroeger waren we verantwoordelijk voor de impact van de techniek op de wereld en nu worden we ook nog verantwoordelijk voor de impact van de techniek op ons eigen denken.

Brengt AI ons denken in een stroomversnelling?
AI heeft het nadenken over ethiek enorm aangewakkerd. Mijn vakgebied was heel lang een soort van exotische niche in de filosofie. En nu gaan de meeste universiteiten ook techniekethiek onderwijzen. Ik denk al tien jaar dat we ethisch moeten ontwerpen en dat ethiek niet alleen maar in de boeken zit, maar ook in de dingen. Inmiddels heeft elk zichzelf respecterend bedrijf een ethische code rondom AI. AI is zo invloedrijk dat we echt zijn gaan begrijpen dat techniek niet meer alleen gaat over apparaten of kille laboratoria, maar over de samenleving.
Als voorzitter van de werkgroep Ethiek en digitalisering bij ECP, Platform voor de informatiesamenleving in Den Haag, heb ik gewerkt aan een ethisch kader. De ethische codes rondom AI gaan over transparantie, aansprakelijkheid, uitlegbaarheid, al die makkelijk uit te spreken woorden. Die blijven nogal vrijblijvend als je er niet concreet iets mee kunt. In onze ‘Aanpak Begeleidingsethiek’ leggen we een hele simpele aanpak uit, eigenlijk een soort schemaatje over hoe je dat kunt doen. In dit kader werk ik ook samen met Academy Het Dorp, Siza, het Koninklijk huis en Gehandicaptenzorg. Als je ethiek op deze manier insteekt, gaat het niet over een oordeel van buitenaf, zoals bijvoorbeeld een medisch ethische toetsingscommissie doet. Bedrijven en overheden hebben een oprechte ambitie om ethiek te verbinden met de ontwikkeling van techniek.

In je boek schrijf je: “Als we een betrokken verhouding tot technologische mediatie ontwikkelen, dan overkomt deze morele rol van technologie ons niet…” Geldt dat ook voor AI?
Volgens mij realiseren we ons dit bij AI al in een vroeg stadium. Het begint echt tot ons door te dringen dat zoekmachines bijvoorbeeld niet neutraal zijn maar dat ze ons beïnvloeden. En dat ik andere resultaten krijg dan mijn buurman of mijn partner. Dat dit iets doet met hoe je de wereld begrijpt, op welke partij je stemt, welke vriendschappen je aangaat. Het besef dat techniek invloed op ons uitoefent is groter dan ooit. In de media schrijven techjournalisten niet meer alleen over de laatste nieuwe snufjes, maar over zaken als privacy en security. Er is rondom technologie een heel nieuw discours ontstaan. Dat verklaart ook waarom er steeds meer aandacht is voor ethiek in de ontwerpfase. We zien nu in dat die twee dingen bij elkaar horen.

Maar… we zijn er nog niet.
Nee, nog lang niet. Dat hangt ook af van de mate waartoe we in staat zijn om die hele grote, krachtige spelers in beweging te krijgen. Het is misschien een afgekloven verhaal, maar het blijft waar. Bij de kleinere bedrijven om mij heen zie ik vaak de ambitie om de wereld te verbeteren en enorme bevlogenheid op gebieden als duurzaamheid. Natuurlijk willen zij ook een boterham verdienen, maar het gaat niet om big money ten koste van alles. Naarmate bedrijven groter worden wordt hun invloed potentieel bedreigender.
Apple en Google worden bijvoorbeeld steeds groter in eHealth. Ik ben betrokken bij de ethische analyse van de CoronaMelder. De privacy van die app is ontzettend knap georganiseerd, maar toch ontkom je niet aan het gebruik van het besturingssysteem van Apple of Google. Op papier beloven ze niets te zullen doen met de verwerkte data, maar uiteindelijk weten we dat niet. Nu zal eventueel misbruik door Apple of Google in dit geval wel meevallen, omdat ze natuurlijk ook een bepaalde maatschappelijke betrokkenheid hebben om deze pandemie een halt toe te roepen. Dat neemt niet weg dat we sterk afhankelijk zijn van deze grote partijen, wat ook geldt voor hun rol in het bredere plaatje van eHealth. Het waardekader van die Amerikaanse techgiganten is toch iets anders dan die van onze Nationale zorg. Iedereen hier kan de zorg krijgen die hij of zij nodig heeft, het is niet alleen voor de rijken. Daar werkt dat toch anders. En op macroschaal kan ik mij echt zorgen maken over de invloed van deze grote jongens.

Moeten we het dan hebben over de techgiganten in plaats van over AI?
Dat is een andere vraag dan wat al die technologieën doen met onze keuzes en onze moraal. Digitale technologie gaat horen bij de infrastructuur van ieders leven, en in mijn optiek hoort technologie dan ook tot de basis van de mensheid anno nu. Wanneer wij niet meer zonder die basis kunnen leven, ontstaat er een probleem als die basis niet meer publiek is, maar in het bezit van enkele machthebbers. Het is een grote vergelijking maar eigenlijk ga je daarmee terug naar een situatie die bijna middeleeuws aandoet, dat je dus alleen volwaardig kan deelnemen aan de samenleving wanneer je als horige belasting betaalt aan de grootgrondbezitter. Hoe kun je nog een rechtvaardige, toegankelijke, inclusieve samenleving overeind houden? Helemaal wanneer dit systeem onder de motorkap compleet kapitalistisch is en in de handen van een klein aantal grote bedrijven.

Filosofie en politiek schuren hier dicht tegen elkaar aan. Wat kunnen we doen om te voorkomen dat techgiganten de totalitaire heersers worden van onze moderne maatschappij?
Kwetsbaar antwoord: zoeken naar nieuwe vormen van democratisering. Uiteindelijk is ons systeem ondemocratisch aan het worden. In mijn werk zoek ik ook naar nieuwe rollen om die democratische betrokkenheid te kunnen vergroten. Naar mogelijkheden om de burger meer ruimte te geven in die ethische reflectie. Noem het citizen ethics. Een beetje in navolging van citizen science, waarbij je als burger op instapniveau kunt meehelpen aan de wetenschap. Zo doen patiënten mee met onderzoek naar hun eigen ziekte. Zij hebben in zekere zin een voorsprong op de arts, want zij hebben zelf de ziekte en ervaren alles wat daarbij hoort. Samen kom je dan tot hele interessante ontdekkingen. Op het gebied van citizen ethics hadden we recent binnenkort een bijeenkomst van burgers over de CoronaMelder. Ons enige doel is ophalen wat bij de mensen nu de centrale ethische vragen zijn. Waarmee moeten we rekening houden bij het inbedden in de maatschappij van die app? Dan heb je natuurlijk nog wel een ethicus nodig die daar een helder verhaal van maakt, maar ik zit daar niet in de rol van de expert die de mensen eens gaat uitleggen wat goed en slecht is voor ze. Ik zit daar om van de echte experts te horen wat hen bezighoudt.

CV Peter-Paul Verbeek
Hoogleraar Filosofie van Mens en Techniek aan de Universiteit van Twente, wetenschappelijk co-directeur van het DesignLab van dezelfde universiteit en hij is ‘honorary professor’ aan Aalborg University, Denemarken. Zijn onderzoek richt zich op de relaties tussen mens, technologie en samenleving. Daarnaast is Verbeek:
– Voorzitter van de World Commission on the Ethics of Science and Technology (COMEST) van UNESCO
– Voorzitter van de Werkgroep Ethiek en digitalisering bij ECP
– Lid van de Programmaraad Maatschappelijk Verantwoord Innoveren van NWO
– Bestuurslid van het Rathenau Instituut
– Lid van de Raad voor Geesteswetenschappen (KNAW)
– Lid van de Commissie voor de Vrijheid van Wetenschapsbeoefening (KNAW)
– Lid van de Raad van Toezicht van TNO.

Gerelateerde berichten...

X