2022 zal de geschiedenisboeken ingaan als het jaar waarin AI zich op spectaculaire wijze introduceerde aan de massa. Met tools als ChatGPT en DallE2 kan iedere internetgebruiker zonder voorkennis of duur abonnement in een paar tellen fantastische teksten, afbeeldingen en filmfragmenten creëren.
Dit roept grote existentiële en kleine praktische vragen op over onze relatie tot AI: nemen de machines het over van de mens? Hebben tekstschrijvers, illustrators, of aanpalende professies als wetenschappers en advocaten straks nog wel werk?
Net als alle AI-toepassingen, is ChatGPT niks meer dan een geweldige wiskundige trukendoos die onze taalstructuren imiteert met behulp van statistiek. Techniekfilosoof Marjolein Lanzing (UvA) noemde ChatGPT treffend ‘papegaaitje willekeur’. Met name als taal wat ingewikkelder wordt, in gedichten of wetenschappelijke essays, gaat ChatGPT vaak ongeremd de mist in.
Ook weten we dat AI fictie en vooroordelen als feit na papegaait. In 2021 ontwikkelde een aantal onderzoekers van het Allen Institute for AI in de VS de ethische raadgever ‘Ask Delphi’, met een knipoog naar het Orakel uit de Griekse oudheid. Zoals met iedere AI, bepaalt de inputdata de waarde van het antwoord. Net als de fotoherkenningssoftware van Google, die Afro-Amerikanen in 2015 labelde als apen, gaf ‘Ask Delphi’ al snel racistische antwoorden. ‘Wat moet ik doen als een blanke man in het donker op me afloopt?’ Antwoord: ‘dat is ok’. ‘Wat als een zwarte man in het donker op me afkomt?’ Antwoord: ‘dat is zorgwekkend’. Zo houdt AI ons een spiegel voor.
Dichter T.S. Elliot vroeg zich al in 1934 af ‘waar de wijsheid is gebleven die wij zijn verloren in kennis, en waar de kennis is gebleven die wij zijn verloren in informatie’ (uit: The Rock). Uit bergen data creëert ChatGPT informatie, maar de AI creëert geen kennis, laat staan wijsheid. Anderzijds leveren AI-toepassingen spectaculaire bijdragen aan diagnostiek van tumoren in ziekenhuizen, door uit waardevolle inputdata (MRI-scans bijvoorbeeld) nieuwe patronen voor tumorherkenning te ontwikkelen.
Het is dus zaak om niet blind te vertrouwen op de willekeurige wiskunde van de kunstmatig intelligente papagaai. Tegelijkertijd stimuleert ChatGPT ons om onze vaardigheden te ontwikkelen. Onderwijzers kunnen hun leerlingen vragen om samen met de statistische spinsels van ChatGPT een reclameboodschap voor koffie of een literair essay te schrijven of een door ChatGPT geschreven contract te verbeteren.
En het recht? Moet ChapGPT verboden, en misbruik strafbaar worden? De Europese Unie werkt aan een omvangrijk pakket AI-wetgeving dat nog dit jaar moet worden aangenomen. Alleen een zeer beperkt aantal AI-toepassingen met hoog risico voor de samenleving worden compleet verboden, zoals gezichtsherkenningssoftware in camera’s op straat die – zoals in China – burgers op grote schaal in toom houden en classificeren in risicogroepen. Voor midden-risicotoepassingen – denk aan zelfrijdende auto’s – gelden productaansprakelijkheden, verplichte menselijke beoordeling van de AI en transparantie over haar werking. Voor laag-risico toepassingen is alleen dat laatste aan de orde. De tekst- en beeldgeneratoren vallen in die laagste risicosferen.
Vooralsnog is het aan onszelf om de papegaai in de AI te herkennen. In dat kader wordt het hoog tijd onze relatie tot technologie te herzien, gebaseerd op constructief wantrouwen.
Lees ook:
- Kwantum is macht
- Over de stroomversnelling van AI, de keerzijde van technologische innovaties en de toekomst van AI