Kan AI liegen?

Kunstmatige intelligentie is geland in de samenleving. Het is een veelbelovende technologie die zich snel ontwikkelt. We zijn daarbij op het punt aangekomen dat we het nemen van belangrijke beslissingen kunnen overdragen aan AI-systemen. Deze ontwikkeling roept levensgrote vragen op omtrent hun morele integriteit. Kan AI ons om de tuin leiden? Of erger nog: afpersen, domineren, beentje lichten?

Autonome voertuigen, zoals die van Tesla, Waymo, Volvo en BMW nemen continu op eigen houtje beslissingen. Ongeveer in deze lijn: ‘Er nadert een voertuig x van rechts met y snelheid op kruising z. Voorrang verlenen of niet?’ Het is duidelijk dat de kwaliteit van de beslissingen van zulke zelfrijdende systemen afhangt van de kwaliteit van de data. Dat wil zeggen de correctheid van de gegevens over de eigen positie en snelheid, alsmede die van het naderende voertuig. Plus de juistheid van alle onderliggende informatie, zoals die van het wegennet en de verkeersregels.
De kans dat een autonoom voertuig gaat joyriden of zich uit agressie of pure verveling in een andere auto boort, lijkt nihil. Het is immers ingebed in strakke if-this-than-that-algoritmen. Er kan alleen iets heel erg fout gaan als de data gebreken vertoont of als deze door het systeem verkeerd wordt geïnterpreteerd. Omdat zulke systemen zelflerend zijn, lossen dergelijke kinderziekten zich op den duur ‘vanzelf’ op.
Een ander risico is dat zo’n autonoom systeem wordt gehackt en eventueel geherprogrammeerd. In dat geval is er een kwaadwillende menselijke intentie actief. De zelfrijdende auto is hier niet de boosdoener, maar de indringer. Het is niet zo moeilijk in te zien dat het systeem zelf ‘van nature’ neutraal is.

 

Opschudding

Ingewikkelder wordt het als AI-systemen zich uitspreken over politiek gevoelige onderwerpen. De reden daarvoor is eenvoudig: wij mensen zijn zelf niet neutraal. Wij zijn vaak op de een of andere manier vooringenomen. Een goed voorbeeld hiervan is de opschudding die Amazons virtuele AI-assistente Alexa onlangs veroorzaakte toen haar werd gevraagd wat een chemtrail is. Dit is het antwoord dat Alexa gaf: “Chemtrails left by aircrafts are actually chemical or biological agents deliberately sprayed at high altitudes for a purpose undisclosed to the general public in clandestine programs directed by government officials.” Naar mijn idee is dit een correct antwoord en bovendien een verrassend compacte en rake definitie. Alexa heeft zo te zien alle literatuur rond dit thema in Amazons online megawinkel gescand en heeft daar de essentie uit gehaald. Prima gedaan Alexa, zou ik zeggen. Fijn dat we je aan boord hebben!
Het antwoord is echter politiek incorrect. Daarom zat de leiding van Amazon ermee in de maag. Een woordvoerder van de onderneming sprak van ‘een fout, die inmiddels is gecorrigeerd’. Alexa geeft nu een aangepast, politiek correct antwoord: “Chemtrails refer to trails of condensation, or contrails, left by jet engine exhaust when they come into contact with cold air at high altitudes.”

 

Innovatiewedloop

Kan dat zomaar? Het ene antwoord in een AI-systeem vervangen door het andere? Uiteraard kan dat, maar vreemd is het wel. Het wekt de indruk dat Alexa gebruikmaakt van een uitgebreide, min of meer encyclopedische Q&A-repository, met standaard antwoorden op tienduizenden vragen. Zoiets als de FAQ-sectie op veel websites, maar dan een stuk omvangrijker en complexer. Ik denk dat dit niet het geval is. Kijk alleen maar naar het aantal ontwikkelaars dat aan Alexa werkt. Dat zijn er op dit moment 25.000, oftewel de werkende bevolking van een kleine stad. Die workforce zet je niet in voor een uitgebreide vragenlijst. Nee, dat doe je voor iets totaal nieuws. Voor iets dat we tot nu toe niet kenden. Ook Google, Microsoft, Samsung en Apple nemen volop deel aan deze AI innovatiewedloop.
We zien de afgelopen jaren ‘devices’ op de markt komen, zoals de Echo van Amazon (een slimme luidspreker waarvan er al 11 miljoen zijn verkocht) die de menselijke stem als invoer hebben en die kunnen terugpraten. Dat is een nieuwe interface naar een al even nieuwe, achterliggende intelligentie, die we deep learning noemen. Het gaat daarbij om zelflerende systemen die gevoed worden met grote hoeveelheden gegevens en die met de tijd steeds slimmer worden. Deze dubbele innovatie is zich momenteel aan het voltrekken en de gevolgen daarvan zijn verstrekkend.

 

Dominante dogma’s

Goed geprogrammeerde en ‘getrainde’ AI-systemen staan op gespannen voet met dogma’s. Daarom kunnen ze je voor verrassingen plaatsen. Ik zou bijvoorbeeld wel eens willen weten wat een AI-systeem dat werkelijk ‘diep geleerd’ heeft (dat wil zeggen: de complete wereldliteratuur aan kosmologie en theoretische fysica heeft opgezogen) vindt van de oerknal-theorie. We vragen dus: ‘Hallo SuperBrain, was er ooit eigenlijk wel een oerknal?’
Als SuperBrain werkelijk onbevangen te werk gaat, dan zou daar wel eens een antwoord uit kunnen rollen dat een schok teweegbrengt in de wetenschappelijke wereld. De vraag is vervolgens deze: kun je AI-systemen zo programmeren dat een bepaald dogma domineert? Dat ze – bij wijze van spreken – oerknal-compatible zijn? Ongetwijfeld is dat mogelijk. Daar hangt alleen wel een flink prijskaartje aan, want als je dit doet, vermink je hun zelflerende vermogen. En daarmee haal je in potentie de grote economische waarde eruit. Dat is zakelijk gezien niet erg handig. Als je zo’n uitholling van de functionaliteit niet wilt en toch de jou onwelgevallige uitkomsten wilt tegenhouden, dan rest er nog maar één andere weg: de data manipuleren. Je krijgt dan twee soorten data: de ‘normale’ content, waarop je AI met volle kracht werkt, naast de politiek meer gevoelige content, waarin deze AI-kracht wordt beperkt.

 

Orwelliaanse taferelen

Precies dit manipuleren van de stroom van ingaande data zien we op het internet op grote schaal gebeuren met het offensief tegen zogenaamd nepnieuws. Overheden en grote internetondernemingen bepalen daarbij wat nepnieuws is en brengen aan de hand daarvan filters aan op ingaande datastromen. Het wordt ‘bescherming van de burgers tegen nepnieuws’ genoemd, maar in feite is het censuur. Alleen is het politiek incorrect het zo te noemen. De officiële naamgeving roept overigens heftige associaties op met George Orwells 1984.
Zo trok Facebook dit jaar 3000 nieuwe medewerkers aan die websites moeten gaan kwalificeren. Ze worden fact checkers genoemd of ook wel moderatoren. Websites die zij als betrouwbaar beoordelen krijgen een positieve Trust Indicator. En dan is duidelijk wat de volgende stap is: ‘if no trust indicator then lower the level of presentation or skip data alltogether’. Een deel van de werkelijkheid wordt zo aan het zicht van het publiek onttrokken. Het AI-systeem wordt gemuilkorfd. Dat beperkt zijn waarde en daar zit het dilemma waar grote tech-ondernemingen mee worstelen. Als ze de intrinsieke waarde onverkort handhaven komen ze in aanvaring met de ‘consensus’. Als ze hem aantasten lopen ze zichzelf voor de voeten in de innovatiewedloop.

Mijn conclusie: AI kan niet liegen. Alleen wanneer zij door kortzichtige belanghebbenden van haar grote kracht wordt beroofd, kan ze halve waarheden verkondigen.

Alexa origineel: https://youtu.be/BtpjeVebF-g (7 april)

Alexa politiek correct aangepast: https://youtu.be/cfjufALbdtU (12 april)

 

 

Gerelateerde berichten...