Opvoeden

frequentieveiling

Deze column is niet geschreven door ChatGPT. Ik zeg het maar meteen, want als je het nieuws van de afgelopen tijd moet geloven laat zo ongeveer iedereen z’n teksten door kunstmatige intelligentie schrijven. Van verslaggevers tot speechende politici en van rechters tot luie studenten. Ik vind het prachtig dat nieuwe technologie ons even collectief versteld kan doen staan. Dat creatieve geesten de nieuwe mogelijkheden meteen adopteren en de meest waanzinnige creaties maken.

Maar natuurlijk zijn er ook nadelen. Eén ervan is dat deze tools soms de neiging hebben nogal seksistisch of racistisch te zijn. Althans: dat zijn de teksten en plaatjes die ze opleveren. De oorzaak ligt in de vervuilde data om AI te trainen en mogelijk ook in tunnelvisie bij de personen die de tools hebben gemaakt. Wat dat betreft zijn deze tools voor ons gebruikers ook een confronterende spiegel.

In essentie doen ze niets meer dan ons voorschotelen wat op basis van een complexe cocktail van data, statistiek en algoritmes het meest waarschijnlijke antwoord is op onze input. En dat resultaat is meestal zo goed, dat we er onwillekeurig menselijke eigenschappen en bewustzijn op projecteren. Maar de tool is niet bewust seksistisch: het is een echo van ons eigen seksisme door de lens van AI.

Ook in Brussel heeft de nieuwe generatie AI voor veel opschudding gezorgd. Zij waren namelijk behoorlijk ver met nieuwe wetgeving om het ontwerp en de toepassing van AI te reguleren. Deze AI Act gaat uit van een getrapt risicomodel. Dat lijkt in de basis een duidelijke aanpak en onze sector is gebaat bij duidelijkheid. Het probleem met generatieve AI is alleen dat je heel moeilijk vooraf kunt bepalen hoe groot het risico is. Met dezelfde tool maak je namelijk zowel een foto van een magisch sprookjesbos als een deepfake van een politicus. En de tool die grappige gedichtjes voor je schrijft, maakt net zo makkelijk gevaarlijke malware. Hoe maak je daar algemene regels voor?

Misschien kan Brussel wat leren van robotexpert Chris Verhoeven van de TU Delft. Hij beschouwt robots als een nieuwe diersoort. En hij pleit ervoor dat we ze ook zo behandelen. Net als dieren moet je AI trainen. Net als bij AI hebben we ook bij dieren de neiging om ze allerlei menselijke eigenschappen toe te dichten. En net als bij AI is het gedrag van onze dieren vaak een reflectie van ons eigen gedrag. Wat ik zo mooi vind aan die vergelijking is dat het ons een herkenbaar frame geeft om over nieuwe technologie na te denken. Kunstmatige intelligentie is een ‘black box’ hoor ik vaak. En voor beleidsmakers is dat een probleem. Zij willen precies weten wat er in zo’n tool gebeurt, zodat ze regels kunnen ontwikkelen om nadelige effecten te voorkomen.

Ik weet ook niet precies wat er in het hoofd van mijn twee teckels omgaat, maar hoe langer ik ze ken, hoe beter ik hun gedrag begrijp. Daar zit misschien de sleutel voor onze toekomstige omgang met AI: niet het ‘gedrag’ reguleren, maar de manier waarop we het opvoeden. En dat is uiteindelijk een verantwoordelijkheid van ons allemaal.

Lees ook:

Gerelateerde berichten...