Peter-Paul Verbeek: “ICT wordt een middel om gedrag te beïnvloeden”

Mirjam Hulsebos portret

Van data naar betekenis (deel 4)

Dit artikel is in deze serie eigenlijk een vreemde eend in de bijt, want het gaat nu eens niet over hoe we uit (big) data betekenis kunnen halen, maar over de maatschappelijke impact van technologie. Met hoogleraar Filosofie van Mens en Techniek Peter-Paul Verbeek bespreken we de ethische kant van ons vak.

Hoewel Verbeek voorzitter is van de vakgroep Wijsbegeerte aan de Universiteit Twente, is hij vaak te vinden bij zijn collega’s van de technische studierichtingen. “Zeer recent is ons Philosophy Lab geopend als onderdeel van het Design Lab. Wij bedrijven hier geen filosofie op de manier van de Muppets, die oude mannetjes bovenin het theater die van een afstandje naar de wereld kijken en commentaar leveren. Nee, wij maken vuile handen. We werken nauw samen met ingenieurs, we zitten dicht op de praktijk. En wij willen techniek niet alleen toetsen aan vooraf vaststaande kaders, maar onderzoeken ook hoe die kaders zelf veranderen. Het gaat ons erom de ethiek zo dicht mogelijk naar de techniek te brengen.”

 

Veranderende waarden

Verbeek ziet dat onder invloed van techniek – met name het internet – de ethische waarden en normen van mensen nu snel veranderen. “Ons beeld over privacy wordt bijvoorbeeld anders. We vinden privacy nog steeds belangrijk, maar op een andere manier dan hoe we daar 20 jaar geleden tegenaan keken. Het kernwoord is tegenwoordig sharen. Ik vind een heel interessante vraag: hoe moet je de openbare ruimte inrichten om sharen mogelijk te maken met respect voor iemands privacy? Als je vanuit die hoek naar dit thema kijkt, dan krijg je een heel andere discussie dan wanneer je het vanuit oude waarden en normen ten aanzien van privacy blijft aanvliegen,” vindt Verbeek.

Een voorbeeld is het onderzoek naar augmented reality, waar Verbeeks groep zich de komende tijd mee gaat bezighouden. Er liggen contacten met Google en Verbeek zou dolgraag meedenken over hoe Google Glass beter zou kunnen omgaan met een aspect als sociale interactie. “De bril kan gezichten herkennen, je kunt er ongezien foto’s en video’s mee maken, maar je kunt ook je mail lezen terwijl niemand dat in de gaten heeft. Wat doet zo’n bril met de sociale interactie? Google claimt een positief effect op sociale interacties omdat je niet je telefoon hoeft te pakken om iets te doen. Maar het is maar de vraag of dat zo is. Of je het dan niet te eenzijdig bekijkt vanuit de persoon die zo’n bril op heeft en te weinig vanuit mensen in zijn of haar omgeving. Want die vinden het vaak een onprettig idee dat ze niet kunnen zien wat iemand doet op het moment dat ze met hem of haar praten. Misschien is het hen wel veel prettiger als de bril aangeeft in welke stand die staat, bijvoorbeeld een lampje dat oplicht als de bril jouw gezicht heeft herkend,” zegt Verbeek.

Wat hem meteen op een volgend spannend thema brengt: hoe gaat onze maatschappij veranderen als gezichten voortaan overal herkend gaan worden en je gezicht de sleutel wordt om gegevens mee te ontsluiten? Verbeek: “Iedere keer dat een foto op Facebook wordt getagd, groeit hun database met gezichten. Er zitten al ongekend veel foto’s met bijbehorende namen in. Met intelligente software kunnen ze jou meteen herkennen in een grote mensenmassa. Bewakers van orde en veiligheid zullen daar blij mee zijn, want dat betekent dat ze straks heel eenvoudig aan de hand van beelden van bewakingscamera’s de relschoppers kunnen herkennen. Maar wil jij wel altijd herkend worden op het moment dat je een voetbalwedstrijd bezoekt? Een winkel inloopt? En ga zo maar door. Waar moet je de grens trekken?”

 

Concrete theorie

Om dat te bepalen werkt Verbeek met een team onderzoekers aan een theorie om de rol van technologie in kennis, moraal en metafysica te snappen. “Als we zo’n theorie hebben,’ verduidelijkt hij met een glinstering in zijn ogen, “dan wordt het veel eenvoudiger voor ontwerpers van nieuwe technologie om te anticiperen op onwenselijke neveneffecten die technologie heeft. Dan wordt het makkelijker om vooraf na te denken over hoe je dit soort vraagstukken kunt oplossen. Nu wordt ethiek nog nauwelijks meegenomen in technologische ontwikkelingen. Technologie wordt vaak te eenzijdig bekeken vanuit de techniek en vanuit de kansen die het biedt. Pas later blijkt vaak dat er ook nadelen aan zitten. Soms moet je die accepteren, maar heel vaak kun je die ook wegnemen door een ander design. Daar willen wij ontwerpers bewust van maken.”

Een ander design kan een grote impact hebben op de maatschappij. Verbeek geeft een voorbeeld: “In sommige landen om ons heen ben je automatisch orgaandonor, tenzij je aangeeft dat je dat niet wilt, de zogenaamde opt-out. Maar weinig mensen geven dan aan geen donor te willen zijn. Nederland werkt met opt-in en hier is iets meer dan 30 procent van de mensen donor. Slechts 40 procent heeft zijn keus bekendgemaakt in het donorregister. Het ontwerp van dit proces heeft dus een grote impact op het resultaat. Nu ICT steeds vaker de drager wordt van dit soort ‘default instellingen’, wordt ICT dus een middel om de maatschappij te sturen, om gedrag de beïnvloeden. Ik vind het belangrijk dat we daar vooraf goed over nadenken.”

 

Gedragsbeïnvloeding

Hij is dan ook erg geïnteresseerd in gedragsbeïnvloedende technologie. “Meestal zet je die op een positief bedoelde manier in. Bijvoorbeeld door patiënten inzicht te geven in de aan hun lichaam gemeten waarden, waardoor je ze beter kunt motiveren om trouw te blijven aan hun therapie. ICT speelt dan de rol van e-coach. Mensen kunnen in dat geval ook zelf kiezen of ze dit willen of niet. Ethisch vinden wij dat volledig verantwoord, maar soms heeft het ongewenste neveneffecten. Stel dat je zo’n e-health toepassing combineert met videoconsulten. De patiënt zit thuis achter zijn eigen computer, waardoor de arts ineens een inkijkje heeft in het privéleven van die patiënt. Dat kan nieuwe inzichten opleveren, die enerzijds misschien wel heel nuttig zijn, maar die de patiënt anderzijds misschien ook wel wil verbergen. Stel dat het gaat om iemand met COPD en zijn of haar partner lukt het maar niet om te stoppen met roken. Natuurlijk snapt de patiënt dat dit slecht is voor zijn gezondheid, dat hoeft de arts echt niet te vertellen. Maar wat vertel je als arts dan wel? Dat zijn lastige discussies.”

In dit geval is het nog zo dat een patiënt er zelf voor kan kiezen of hij al dan niet gebruik wil maken van e-consults, of dat hij toch liever naar het ziekenhuis komt voor een face-to-face gesprek. Maar het komt soms ook voor dat mensen het niet weten dat ze onderwerp zijn van gedragsbeïnvloeding. Dit was bijvoorbeeld het geval bij een experiment van Facebook. Bij een groep Britse gebruikers werden tijdelijk de positieve berichten weggefilterd om te onderzoeken of het zien van uitsluitend negatieve berichten hun stemming beïnvloedde. “Waar vooral veel om te doen was,” aldus Verbeek, “was het feit dat mensen ongewild onderdeel werden van een experiment. Ze konden er niet zelf voor kiezen. Dat betekent dat je vooraf heel goed moet nadenken over onderwerpen waar je de keus van mensen beperkt of op zijn minst beïnvloedt. En je moet ook helder zijn op welke manier je hun keus of gedrag beïnvloedt.”

Hoe ver technologie kan gaan bij gedragsbeïnvloeding, blijkt uit het voorbeeld dat hij geeft van een patiënt met de ziekte van Parkinson die enorm opknapte van zogenaamde deep brain stimulation (dbs), een methode waarbij een elektrode wordt geplaatst in het hoofd om de symptomen van Parkinson te verminderen. “Bij deze patiënt veranderde echter ook het gedrag. Zijn remmingen vielen weg. Hij knoopte een relatie aan met een andere vrouw, kocht voor haar een tweede huis en een vakantiehuis in het buitenland. Hij schafte meerdere auto’s aan, raakte betrokken bij verkeersongevallen en zijn rijbewijs werd ingenomen. De man had geen inzicht in zijn eigen gedragsverandering, tot het moment dat de dbs werd uitgeschakeld. Maar op dat moment keerden zijn Parkinson-symptomen zo hevig terug dat hij volledig bedlegerig en afhankelijk werd. Hij stond voor een duivels dilemma: een bedlegerig leven met alle Parkinson-symptomen, of een ongeremd leven waarbij hij zichzelf voortdurend in de problemen bracht en waarbij zijn omgeving hem haast niet meer herkende. Je kunt je in dit geval afvragen: in hoeverre heeft deze man een vrije keus? En wie is de authentieke persoon die de keuzes maakt?”

 

Praktische tool

Om ontwikkelaars van dit soort nieuwe technologie vooraf beter te laten stilstaan bij mogelijke negatieve neveneffecten, ontwikkelen Verbeek en zijn team de komende jaren de al genoemde theorie. “Het staat voor ons buiten kijf dat het een heel praktische theorie moet worden, een leidraad die ontwerpers van nieuwe technologie naast hun werk kunnen leggen. Het moet echt een tool worden.”

Dat is het grootste verschil met het werk van Verbeek tot nu toe. “Ik heb al veel over de ethische lading van techniek gepubliceerd. En die kennis dringt ook wel door tot ontwerpers bij grote bedrijven, zoals bijvoorbeeld Philips en Océ. De ontwerpers daar hebben ethiek wel in hun mindset zitten. Maar het is toch allemaal nog vrij abstract. Je kunt het nog niet makkelijk vastpakken. De theorie die wij nu ontwikkelen moet daarom heel concreet worden. Als we erin slagen er een tool van te maken, dan zijn we ervan overtuigd dat ethiek veel vaker en beter wordt meegenomen in de ontwikkeling van nieuwe technologie.”

 

Peter Paul Verbeek

Peter Paul Verbeek

 

Advies aan ICT-managers

Hoewel Peter-Paul Verbeek zich vooral richt op ontwerpers van nieuwe technologische snufjes, heeft hij ook wel een boodschap aan degenen die technologie toepasbaar moeten maken in hun organisatie. “Wat ik zie is dat organisaties bij de selectie van bijvoorbeeld nieuwe software voornamelijk kijken naar de functionaliteit. Beslissers, en zeker de verantwoordelijken namens de it-afdeling, letten vaak nauwelijks op wat die software doet met de manier waarop mensen werken en met elkaar omgaan. Neem als voorbeeld een applicatie om tijd te schrijven, zodat het voor medewerkers nog makkelijker wordt om hun uren te registreren. Voordat je zo’n applicatie implementeert zou je moeten stilstaan bij de vraag: wat doet het met medewerkers als ze zich voortdurend moeten verantwoorden? Worden ze daar wel productiever van?”
De beste ideeën ontstaan immers juist vaak als je even wat kunt lummelen, en daardoor tijd hebt om te reflecteren op wat je doet en hoe dat slimmer kan. In een tijdschrijfsysteem kun je deze tijd niet verantwoorden, waardoor mensen druk voelen om ieder moment van de dag productief te zijn.
“Sta vooraf wat meer stil bij de mediatie van een technologie, want dan snap je beter de voors en tegens die medewerkers in hun werk gaan ervaren en kun je vooraf maatregelen nemen om eventuele weerstanden weg te nemen”, adviseert Verbeek. “Je zult zien dat de acceptatie dan veel sneller verloopt.”

 

Gerelateerde berichten...