Risico’s generatieve AI vereisen terughoudendheid in gebruik

Vaardigheden

De opkomst van generatieve AI-systemen versterkt risico’s als discriminatie en onveiligheid en kent nieuwe risico’s rond intellectueel eigendom en menselijke ontwikkeling. Het huidige en aangekondigde beleid moeten worden doorgelicht en aangescherpt. AI vereist terughoudendheid in gebruik.

Organisaties, bedrijven en burgers moeten zich afvragen of ze generatieve AI verantwoord kunnen gebruiken. Dat concludeert het Rathenau Instituut uit nieuw onderzoek.

Het is een reële mogelijkheid dat het huidige en aangekondigde beleid, waaronder de aanstaande Europese AI-verordening, niet voldoende zijn om de risico’s van generatieve AI-systemen tegen te gaan. Rathenau beveelt beleidsmakers en politici daarom aan om nationaal en Europees beleid door te lichten en aan te scherpen. Creëer bijvoorbeeld met de AI-verordening de mogelijkheid om risicovolle generatieve AI-systemen van de markt te halen. In de tussentijd zijn ondersteuning van toezicht, afspraken met ontwikkelaars en maatschappelijk debat nodig over de wenselijkheid van generatieve AI-systemen zoals ChatGPT, Bard en DALL-E.

Desinformatie

De opkomst van generatieve AI-systemen versterkt en compliceert bekende risico’s van digitalisering. De productie van desinformatie wordt eenvoudiger en bescherming van data wordt ingewikkelder. En terwijl het al lastig was om transparantie te verkrijgen over de werking van AI-systemen, is dat bij de complexere generatieve AI-systemen vrijwel onmogelijk. Ook brengt generatieve AI nieuwe risico’s met zich mee, zoals de bescherming van intellectueel eigendom.

De invloed van enkele grote technologiebedrijven was al groot in maatschappelijke domeinen als de zorg of het onderwijs, maar breidt zich verder uit naar de wetenschap. Al met al zet generatieve AI druk op democratische processen zoals de toegang tot kennis, de nieuwsvoorziening en het publieke debat. Het wordt het nog lastiger om democratische zeggenschap te krijgen over de technologie.

Toepassingen

“Politici en beleidsmakers moeten nu aan de slag om de risico’s van generatieve AI tegen te gaan, maar het kost tijd voordat beleid effect zal hebben”, aldus onderzoekscoördinator Linda Kool. “Tot die tijd staat iedere burger en organisatie voor de vraag of zij de technologie op dit moment verantwoord kunnen gebruiken.”

De Rathenau-publicatie Generatieve AI biedt overzicht van de soorten toepassingen van generatieve AI en de maatschappelijke impact ervan. Generatieve AI-systemen vormen een doorbraak in de digitalisering, omdat ze in tegenstelling tot andere AI-systemen veel verschillende taken kunnen uitvoeren en kunnen werken met verschillende modaliteiten: tekst, beeld en geluid, maar ook met eiwitstructuren of chemische verbindingen. De technologie is aanzienlijk beter in taal dan andere AI-systemen, waardoor mensen door een chatbot kunnen worden aangesproken, vermaakt of verleid, en een AI-systeem ook niet-routinematige taken kan overnemen.

Lees ook:
  • Rathenau: AR en VR leiden tot problematische dataverzameling
  • Lang leve AI, maar hoe bescherm je je organisatie tegen de risico’s?

Gerelateerde berichten...