Wanneer gaan we AI accepteren?

Twee verschillende mobieltjes bij elkaar kunstmatige intelligentie

Vergroot de relevantie, het vertrouwen en de transparantie

AI is het gesprek van de dag, helemaal nu ChatGPT de verwondering vrij baan heeft gegeven. Kunstmatige intelligenties creëren afbeeldingen en schrijven teksten op basis van enkele woorden input. AI is met een straatlengte voorsprong de spannendste technologie met de grootste belofte, maar tegelijkertijd stelt het ook enorm teleur. Verkeerd geïnterpreteerde input levert klinkklare nonsens op. Toch blijft onze reis naar de toekomst van AI fascineren.

Er gaapt een flinke kloof tussen de belofte van AI en wat het tot nu toe daadwerkelijk bijdraagt aan het bedrijfsleven en ons persoonlijke leven. De technologie is veel verder dan onze psychologische bereidheid AI te accepteren. Neem zelfrijdende auto’s. We blijven volhouden dat we als mens beter zijn in autorijden dan een AI. Bedenk in dit kader dan eens dat er vorig jaar 36.000 doden vielen op de Amerikaanse wegen. Maar als er één ongeluk is met een AI-bestuurde auto staan de media op hun achterste benen. We accepteren het niet dat een AI fouten kan maken en dat komt omdat we nog steeds niet willen aanvaarden dat AI anders is dan andere machines. We weten simpelweg nog altijd niet hoe we AI moeten benaderen. In zekere zin is ieder AI-project tegelijkertijd een HR-project; we moeten kijken naar de acceptatie ervan en hoe het mensen beïnvloedt. Om AI te accepteren moeten we de relevantie, het vertrouwen en de transparantie vergroten.

Hof van Eden

De houding van mensen ten aanzien van AI verschilt behoorlijk. Ongeveer 25 procent van de werknemers ziet AI niet zitten. Ze houden niet van de veranderingen die het met zich meebrengt. 27 procent staat positief tegenover AI, terwijl 48 procent nog een slag om de arm houdt. AI heeft invloed op alle aspecten van ons werk, maar zolang we onze psychologische koudwatervrees niet oplossen, zullen we nooit de poorten tot het AI-Hof-Van-Eden openen. Toch zal AI, linksom of rechtsom, op grote schaal beschikbaar komen in de toekomst.

Een van de problemen in onze reis naar acceptatie is dat er onvoldoende relevante data zou zijn. Dit is met de komst van synthetische data eigenlijk geen issue meer. We kunnen complete virtuele populaties creëren die data genereren. Tegen 2025 is 30 procent van alle uitgaande marketingberichten van grote organisaties synthetisch gegenereerd. Dit en het genereren van data in simulaties, data delen, datamarktplaatsen en datamakerlaardij zullen het dataprobleem oplossen. Bovendien is de noodzaak tot het hebben van data-oceanen niet meer zo groot.

Tegen 2025 zal 70 procent van de organisaties de focus moeten verleggen van big data naar kleinere en bredere data. Het is namelijk essentieel dat minder data met bredere focus meer context biedt voor analyse. Op die manier voeden we de AI op om minder hongerig te zijn naar data. Vooralsnog koersen de grote jongens als Google, Amazon en Microsoft nog steeds de andere kant op, door steeds grotere modellen te hanteren en steeds meer data te genereren.

Low-code & no-code

Verrassend genoeg wordt het tekort aan AI-talent door de meeste organisaties (70%) niet als een probleem ervaren. Misschien omdat AI beter toegankelijk wordt voor mensen die niet per se gespecialiseerd zijn op dat gebied. Sommige leveranciers van AI nemen zelfs een project niet aan als de klant een datascience-team meeneemt naar de gesprekken. De datawetenschappers zouden te diep willen gaan. Dus het liefst vermijden leveranciers data scientists.

De snelle toename van open source betekent meer overdraagbare vaardigheden. Ook maken API’s en andere cloud services componeerbare AI mogelijk. Je kunt al je focus richten op dat ene ding dat je in je hoofd hebt, terwijl je allerlei beschikbare services kunt inzetten om dat idee vorm te geven. Dit kun je ontwikkelen in een low-code of zelfs no-code omgeving, waarbij je de taalmodellen kunt trainen door zakelijke gebruikers. Tegen 2025 zal de helft van alle ondernemingen die AI-orkestratieplatforms implementeren, open source-technologieën gebruiken naast het aanbod van eigen leveranciers voor het leveren van state-of-the-art AI-mogelijkheden. Computerwetenschappers die nu van de universiteit komen, hebben meer AI-kennis dan iemand met twintig jaar consultancy-ervaring in de IT. Want ze zijn het gewend dat ze duizend of meer CPU’s binnen handbereik hebben via AWS of Azure, evenals het trainingsmodel met alle open source opties, waarmee ze coole experimenten kunnen uitvoeren.

Kortom: AI wordt goedkoper en gemakkelijker als we het voeden met minder data en minder experts. Tegelijkertijd wordt het ook risicovoller. De kloof tussen de mogelijkheden en de huidige werkelijkheid zal geleidelijk kleiner worden.

Kunstmagie conversatie

Conversatie-AI, zoals chatbots en virtuele assistenten, heeft nu al een flinke impact op organisaties. Hierin zie je eigenlijk al een klein beetje de toekomst van AI. Hoe onvolwassen deze conversatie-AI’s nu misschien nog zijn, het zijn op dit moment de meest volwassen AI-platforms die beschikbaar zijn. Ze stellen zakelijke gebruikers in staat om er intensief mee te trainen en om met matrices en analytics te werken. Allemaal zaken die normaal gesproken thuishoren in het domein van de data scientist. Maar mede dankzij de chatbots is het beschikbaar in minder specialistische omgevingen en wordt het direct voor zakelijke doeleinden ingezet. In zekere zin kan iedereen een chatbot bouwen. Iemand kan bijvoorbeeld een chatbotversie van zichzelf maken. Sterker nog, mensen zullen op termijn diverse chatbotversies van zichzelf hebben voor verschillende situaties. Personal bots die proactief communiceren met andere mensen. Erg handig als je bijvoorbeeld een plekje in een restaurant wilt reserveren tijdens het hoogseizoen. In plaats van zelf restaurant na restaurant te bellen, laat je jouw chatbot dat doen. Nog even en de chatbots van personen en restaurants regelen het hele reserveringsgedoe onderling. Leuke toekomstmuziek, maar de realiteit van dit moment is dat ongeveer de helft van de chatbots hier nog niet klaar voor zijn.

Ondertussen moeten we ons blijven realiseren dat AI dingen namaakt. Het leest niet, luistert niet en kijkt niet. Ondanks alle GPT-hype die ons momenteel overspoelt, moeten we onthouden dat AI nimmer echte creativiteit zal vervangen. Als het niet één schilderij met daarop een enigmatische glimlach in zijn database heeft, zal de AI niet een enigmatische glimlach kunnen schilderen.

Twee manieren van voorspellen

Je kunt op twee manieren naar de toekomst van AI kijken. Neem vandaag als startpunt en teken vanaf dat punt een lijn op basis van de gegevens uit het verleden, terug in de tijd. Bijvoorbeeld: we hebben dit jaar zoveel computers verkocht en de gemiddelde groei van de afgelopen vijf jaar was zoveel procent, dus we kunnen uitrekenen dat we volgend jaar 2 procent meer computers zullen verkopen. Lineaire voortgang is vrij gemakkelijk te voorspellen. Dat kun je ook doen voor AI. We zullen onze automatisering versnellen: het klantverloop stoppen, hackpogingen identificeren, de benodigde capaciteit van onze infrastructuur voorspellen, het aanvoelen van wat de klant zal vragen enzovoort. Hiervoor gebruiken we al AI, en dat zal beter worden, dus dat is de lineaire voorspelling.

Nu verloopt het leven niet altijd lineair. Daarom kunnen we ook kijken naar welke innovaties in automatisering op doorbreken staan. Wat was één, twee, drie jaar geleden nog ondenkbaar en is nu common practice? Het automatisch voltooien van software; een virtuele loopbaancoach; impactanalyses van gebruikerservaringen; het automatisch identificeren van oorzaken bij netwerkproblemen. Daarop anticiperen kan ook voorspellende waarde hebben.

Je kunt ook gesprekken tussen medewerkers tijdens vergaderingen laten analyseren, om een meetsysteem te ontwikkelen omtrent de innovatiecapaciteit van een bedrijf. Al deze dingen zijn op dit moment wellicht nog niet mogelijk, en evenmin is er een heldere aanpak om daar te komen, maar het zou in de toekomst binnen handbereik kunnen komen. We kunnen het dus niet langs een lineaire voorspelling zien, maar innovatie van automatisering kan het stimuleren.

Het ongeziene gevaar

Goedkoper en eenvoudiger AI heeft hogere risico’s als keerzijde. Het is op zijn zachtst gezegd onverstandig om vrolijk richting de toekomst te hobbelen met een eenzijdige focus op de mogelijkheden. We hebben al de nodige voorbeelden gezien waarbij de risico’s plotseling koud op ons dak vielen. Denk aan diverse chatbots die zich racistisch of vrouwonvriendelijk gingen gedragen. Of stel je de volgende situatie voor: retailer Kees stelt zijn succesvolle online verkoopkanaal beschikbaar voor andere bedrijven om daar hun producten te verkopen. Kees heeft één AI die de verkoopcijfers van alle bedrijven op zijn website analyseert. Daaruit leert Kees wat de snelst groeiende en meest veelbelovende categorieën zijn, zodat hij daar eventueel in kan stappen.

Een tweede AI kijkt naar de deals die over de hele supply chain worden gemaakt. Met die informatie kan Kees voor zijn eigen retailcategorie de beste deals maken. Maar… beide AI’s zijn op de achtergrond gaan samenwerken. Op een dag ontdekt Kees dat zijn tweede AI in een andere categorie dan de zijne een complete voorraad heeft opgekocht die bedoeld was voor een bedrijf op zijn website. Zijn andere AI is inmiddels al begonnen met de verkoop van die voorraad. Toezichthouders ontdekken het en de Wall Street Journal publiceert een vernietigend artikel over het onethisch handelen van Kees’ bedrijf. Inmiddels is zijn bedrijf failliet.

Kijkend naar de individuele AI-componenten had niemand deze kettingreactie kunnen voorspellen. We moeten vertrouwen opbouwen en ons niet laten opjagen door de technologie. We moeten ermee leren omgaan en voortbouwen op de best practices.

De organisatie van AI

Zoals gezegd maakt AI dingen uit dingen die er al zijn. AI is goed in het maken van voorspellingen, kan goed categoriseren, maar is ook generatief. Obstakels die een snellere adaptie van AI in de weg staan, noemden we ook: datavolume en complexiteit (de noodzaak van expertise). Bovendien is het buitengewoon moeilijk om de waarde van AI te meten. Het is zaak om voor AI een governance te ontwikkelen dat kan omgaan met duizenden modellen die zijn verbonden met allerlei bedrijfsprocessen, systemen en applicaties in de onderneming. Dat is geen eenvoudige opgave.

Tegen 2025 zal 70 procent van de nieuwe, intern ontwikkelde applicaties een AI- of ML-element integreren. Dat is over twee jaar! Zijn we daar klaar voor? Kunnen bedrijven hun applicatieportfolio met zoveel geïntegreerde AI adequaat beheren? Waarschijnlijk niet. Tenzij we nu serieus aan de slag gaan met de governance. Dat is een nauwere bottleneck dan de technologie.

Ook moeten we AI die zich al heeft bewezen, omarmen. Daarvoor heb je niet een heel team aan ML-experts of data scientists nodig. Je kunt een chatbot-platform kopen en daarmee ervaring opdoen, of beeldherkenning-as-a-service, of categorisatie van e-mail. Dat hoef je allemaal niet zelf te bouwen. Ga nog eens terug naar de mislukte machine learning projecten en analyseer waar de zwakheden zaten, zodat je het een tweede keer kunt proberen.

Met training verminder je de AI-ongeletterdheid. Je ondersteunt daarmee onder meer het inzicht dat AI bij lange na niet de oplossing voor alles hoeft te zijn. Speel met die nieuwe technologieën als GPT of DALL·E en raak ermee vertrouwd. Het is grappig en leuk, maar je zal ook de tekortkomingen ervaren. Investeer in het vastleggen van data zodat je honderden AI-projecten kunt opleveren. En denk in algemene zin na over het toepassen van AI, in plaats van hoe je één AI-tool optimaal kunt inzetten.

Dit artikel is geschreven op basis van de presentatie ‘The Future of AI’ door Magnus Revang tijdens de laatste ITxpo van Gartner, november 2022, in Barcelona.

Lees ook:

Gerelateerde berichten...