Delegeer het denken niet aan ChatGPT

Beeld van de denker ChatGTP

ChatGPT heeft het begrip ‘technologie-hype’ opnieuw gedefinieerd. De website van provider OpenAI ging afgelopen november live met 152.000 bezoekers. Een maand later waren dat er 266 miljoen. Dat komt neer op een stijging van meer dan 5000 procent.

Het fascinerende is dat het hierbij beslist niet om een startup gaat. OpenAI begon al in 2015 en ChatGPT is eigenlijk de vierde generatie van hun AI-product. Nieuw is dat elke gebruiker sinds eind vorig jaar met ChatGPT in natuurlijke taal kan communiceren via de interface. “ChatGPT is om die reden een revolutie”, zegt Prof. Katharina Zweig, die leidinggeeft aan het Algorithm Accountability Lab van de technische universiteit Kaiserlautern. Revolutionair is volgens de hoogleraar ook dat complexere taken kunnen worden overgedragen op de tool. Wel benadrukt ze dat de AI niet meer doet dan het reproduceren van oordelen gebaseerd op menselijke kennis. Ze vergelijkt het met een boek. “Niet het boek met redelijke inzichten is slim, maar de auteur ervan. Om op basis van een boek tot nieuwe inzichten te komen, heeft het intelligente lezers nodig die hun eigen oordeel vormen.”

Foute broninformatie

Om die stap te kunnen maken is er wellicht een leertraject nodig. Zo blijkt ook uit een bijdrage van Michiel Steltman, Voice of the NL digital infra sector, op LinkedIn waarin hij weergeeft wat ChatGPT over hem te melden heeft. Bijna alle items in het bericht waren namelijk onjuist, vooral het feit dat Steltman ‘passed away in 2018, but his contributions to the development of the internet in the Netherlands continue to be remembered and celebrated’. Terecht vraagt Steltman zich na deze ontdekking af of het feit dat hij deze tekst op LinkedIn plaats extra foutieve informatie toevoegt die ChatGPT kan blijven reproduceren. Hoe kun je degelijke fouten corrigeren als je niet weet wat de bron ervan is? Daar schuilt, ook ethisch gezien, het gevaar van de tool. De betrouwbaarheid van de resultaten die door ChatGPT worden gegenereerd, hangt in grote mate af van de kwaliteit van de gegevens en routines waarmee het systeem is getraind. En ChatGPT kan deze eisen zelf niet beoordelen.

Niet transparant

Gebruikers van de AI kunnen dit ook in beperkte mate. Zowel de gegevens waarop het systeem is gebaseerd als hoe het wordt verwerkt, zijn niet erg transparant. Vooral framing-effecten (door eenzijdige, bijvoorbeeld politiek gemotiveerde, selectieregels) of verstoringen (door niet-representatieve of gemanipuleerde datasets) zijn niet uit te sluiten. Volgens Steltman zal ChatGPT ons in die zin alleen vooruit helpen als inspiratie van ons eigen denken, in plaats van dat wij het denken aan de machine delegeren. Bewust gebruik van ChatGPT vereist vooral het besef dat we met de manier waarop we het systeem vandaag gebruiken, de fundamenten beïnvloeden die het morgen zal gebruiken.

Lees ook:

Gerelateerde berichten...