Gezond verstand is het hoogst haalbare in AI

Gezond verstand is het hoogst haalbare in AI

Zoals alles in onze wereld gaat ook de praktijk van Generatieve AI veel sneller dan we kunnen bedenken. Dat betekent dat we het gesprek over de ethiek daaromheen ook veel sneller moeten voeren. Op dit moment proberen we vooral een modus te vinden over hoe we dit gesprek moeten voeren. Terwijl het de hoogste tijd is om concreet de inhoudelijke discussie aan te gaan met elkaar. Hoe houden we AI ethisch verantwoord?

Ontwikkelingen gaan zo snel dat het af en toe lijkt alsof we in Steven Spielbergs Jurassic Park terecht zijn gekomen. We hebben zojuist de gigantisch gevaarlijke T-Rex tot leven gebracht, om ons vervolgens op het hoofd krabben als we bedenken… ‘O ja, hekken. Het was wellicht slimmer geweest als we die eerst hadden ontworpen.’ Er zijn talloze voorbeelden die aantonen dat een AI nog niet klaar was om naar productie te brengen. De National Eating Disorders Association (NEDA), een Amerikaanse non-profitorganisatie, ondersteunt en adviseert mensen op het gebied van eetstoornissen. NEDA besloot hun twintig jaar oude hulplijn die werd bemand door een kleine groep betaalde medewerkers en een leger aan vrijwilligers te vervangen door chatbot Tessa. Een etmaal na live-gang moest de bot alweer uit de lucht worden gehaald, omdat het onjuist en zelfs schadelijk advies gaf aan mensen met een eetstoornis. We zijn duidelijk nog niet in alle gevallen klaar voor deze toekomst.

Ethische dilemma’s

Als we alle franje die rondom AI fladdert even verwijderen, houden we één extreem essentiële richtlijn over: blijf gezond verstand gebruiken. Dat klinkt veel gemakkelijker dan het in de praktijk is. Daarom zijn er vijf fundamentele principes, kaders of richtlijnen die ons enig houvast bieden in hoe we met AI om moeten gaan. AI moet 1) nuttig zijn voor de mensheid, 2) eerlijk zijn, 3) uitlegbaar en transparant zijn, 4) veilig zijn en 5) verantwoordelijk zijn. Dit lijkt allemaal vanzelfsprekend, tot je er meer in detail naar gaat kijken. Dan komen er diverse ogenschijnlijke tegenstellingen naar voren. Nuttig? Natuurlijk, maar wat de één als nuttig ervaart, is voor een ander misschien eerder vervelend. Eerlijk? Okay, maar voor wie? In de details betreden we het domein van de ethische dilemma’s.

Er zijn grofweg drie soorten dilemma’s: 1) dit versus dat, 2) jij versus ik en 3) nu versus later. In het geval van AI kunnen we ons bij alle drie soorten wel iets voorstellen. De juiste beslissingen kunnen hiërarchisch worden bepaald of op basis van sterke argumenten. Wat niet altijd betekent dat dit tot een juiste beslissing leidt. Iets dat vandaag goed lijkt, kan op de lange termijn bijzonder onwenselijk zijn.

Tip: Democratiseren van AI voor snellere innovatie

Samen het goud vinden

In de basis kun je dilemma’s op drie manieren aanvliegen. Je kunt 1) zoeken naar een balans of compromis; een acceptabele middenweg waarin een beetje van jou zit en een beetje van de ander, een beetje nu en een beetje later. Je kan 2) besluiten om beide kanten tegelijkertijd te doen. Door beide waarden te erkennen, zal het breed worden gedragen. En ten slotte kun je 3) trachten het dilemma als geheel te verbeteren. Soms vind je samen het goud en ontdek je dat wat aanvankelijk tegengesteld leek, eigenlijk elkaar complementeert. Een voorbeeld uit de praktijk is het dilemma rond het verzamelen van data. De voorstanders van dataminimalisatie – alleen verzamelen wat je echt nodig hebt – staan vaak lijnrecht tegenover de datamaximalisten – alles verzamelen wat er maar te verzamelen valt. In een compromis kies je ervoor iets meer data te verzamelen dan je eigenlijk nodig hebt. Je lost het op door, met een blik naar de toekomst, alleen data te verzamelen op basis van toestemming van individuen. Of je verbetert het dilemma door je te verdiepen in privacy-verbeterde technologieën, zodat privacy gewaarborgd is terwijl je ook de waarde van de verzamelde data behoudt. Ook kun je ervoor kiezen synthetische data te genereren, een verbetering die voor beide kampen aanvaardbaar zal zijn.

Een ander praktijkvoorbeeld is de inzet van een chatbot. De commerciële afdeling kan niet wachten op de go-live, maar de juridische afdeling wacht liever totdat de chatbot perfect is. In een compromis kun je ervoor kiezen een snelle volger te zijn, in plaats van een pionier en in de tussentijd de bot grondig te testen. Een oplossing kan zijn dat je de chatbot eerst intern online zet, en als dat goed werkt over te stappen naar een externe uitrol. Wil je het dilemma verbeteren, kun je ervoor kiezen de bot als bèta in de markt te zetten. Dit deed Google toen ze Gmail in 2004 lanceerden. De app was ongeveer drie jaar beschikbaar als bèta, waarmee het bedrijf helder maakte dat het nog niet perfect was.

Het ethische midden

Enkele best practices kunnen helpen bij het vinden van het goede ethische midden bij de inzet van AI. Verzeker je ervan dat jouw AI uitlegbaar is en transparant. Maak daar werk van. Benader het niet vanuit de reactieve houding van: vraag maar wat je weten wilt. Maak het proactief door de mensen te vertellen wat ze moeten weten voordat je live gaat met iets. AI mag geen black box zijn, al wordt dit gaandeweg steeds moeilijker. Toch moet er iemand zijn – de bouwer of de beheerder – die kan uitleggen wat er onder de motorkap gebeurt. Onophoudelijk blijven testen – of live gaat als bèta – is een andere best practice. Controleer maandelijks of jouw model niet op drift is geraakt. Tot slot: ethiek heeft alles te maken met vertrouwen, maar bedenk daarbij wel dat we pas echt kunnen vertrouwen dankzij verificatie. Al gaat het uiteindelijk om één werkelijke best practice: blijf je gezonde verstand gebruiken.

Dit artikel is een bewerking van de keynote door Bart Willemsen, ‘Putting Digital Ethics to Practice to Protect Your Enterprise’, gegeven tijdens de Gartner ITxpo in Barcelona, november 2023.