AP vraagt om opheldering over ChatGPT

draken dataverwerking

De Autoriteit Persoonsgegevens (AP) maakt zich zorgen om de omgang met persoonsgegevens bij organisaties die gebruikmaken van zogeheten generatieve artificiële intelligentie (AI), zoals ChatGPT. En dus stuurde de Autoriteit een brief op poten naar software-ontwikkelaar OpenAI die opheldering vraagt over chatbot ChatGPT. Grootste vraag is hoe OpenAI omgaat met persoonsgegevens bij het trainen van het onderliggende systeem.

ChatGPT is een chatbot die ogenschijnlijk overtuigende antwoorden kan geven op veel verschillende vragen. Gebruikers kunnen de bot bijvoorbeeld vragen hun wiskundehuiswerk te doen of computercode te schrijven, of kunnen het gebruiken om advies te vragen bij relatieproblemen of medische kwesties. In Nederland maakten alleen al in de eerste vier maanden na de lancering 1,5 miljoen mensen er gebruik van.

Trainen met persoonsgegevens

ChatGPT werkt met een geavanceerd taalmodel (GPT) dat is getraind met data. Dat kan door data te verzamelen die al op internet staan, maar ook door de vragen die mensen stellen op te slaan en te gebruiken. Die data kunnen gevoelige en heel persoonlijke informatie bevatten, bijvoorbeeld als iemand advies vraagt over een echtelijke ruzie of over medische zaken.

De AP wil nu van OpenAI weten of de vragen die gebruikers stellen worden gebruikt om het algoritme te trainen, en zo ja, op welke manier. Ook zijn er vragen over de manier waarop OpenAI persoonsgegevens van internet verzamelt en gebruikt. En er zijn zorgen over informatie over mensen die GPT ‘genereert’ door antwoorden te geven op vragen. De gegenereerde inhoud kan onnauwkeurig zijn, verouderd, onjuist, ongepast, beledigend, of aanstootgevend en kan een eigen leven gaan leiden. Of en zo ja hoe OpenAI die gegevens kan rectificeren of verwijderen, is onduidelijk.

In algoritmes en AI worden vaak persoonsgegevens gebruikt. Dit betekent dat het gebruik van algoritmes moet voldoen aan de Algemene verordening gegevensbescherming (AVG). De AP houdt daar toezicht op.

Taskforce

Ook andere privacytoezichthouders in Europa maken zich zorgen over ChatGPT en vinden een gezamenlijke aanpak noodzakelijk. De Europese toezichthouders hebben dan ook een ChatGPT-taskforce opgericht binnen hun samenwerkingsverband, de European Data Protection Board (EDPB), om informatie uit te wisselen en acties te coördineren.

Omdat algoritmes, met of zonder gebruik van persoonsgegevens, in alle sectoren te vinden zijn, is het van belang om overkoepelend in de gaten te houden wat de risico’s en effecten zijn. En dat de toezichthouders, inspecties en andere organisaties die daar over gaan, kennis delen en bestaande samenwerkingen versterken. De AP coördineert en bevordert dit gezamenlijk toezicht.

Lees ook:

Gerelateerde berichten...