Terwijl het in boardrooms gonst van de opwinding over artificiële intelligentie, ziet de situatie er op het AI-front heel anders uit. De overgrote meerderheid van deze ambitieuze AI-pilootprojecten bereikt nooit de eindstreep. En daar zijn goede redenen voor.
Twee cijfers geven al een idee van het AI-speelveld in organisaties. Het eerste is 1 procent, wat staat voor het aandeel bedrijven dat, zo blijkt uit onderzoek van McKinsey, vandaag al mee is met artificiële intelligentie. “Slechts 1 procent van de leiders noemt zijn bedrijf ‘volwassen’ inzake implementatie”, klinkt het in het rapport, wat betekent dat AI volledig is geïntegreerd in workflows en substantiële bedrijfsresultaten oplevert.
En dan is er het tweede cijfer uit de recente studie van IDC, uitgevoerd in opdracht van Lenovo. Die toont aan dat maar liefst 88% van de AI-proof-of-concepts nooit de productiefase bereikt. Van elke 33 AI-pilootprojecten die een bedrijf lanceerde, haalden er gemiddeld slechts 4 de volledige implementatie. Ook andere onderzoeken geven aan dat de overgrote meerderheid van de AI-proefprojecten niet wordt verdergezet, met diverse achterliggende redenen.
Complexiteit en kwaliteit van data
Sterke AI begint met goede data. AI-modellen worden dikwijls getraind op cleane, gestructureerde pilootdata, maar falen wanneer ze worden blootgesteld aan de inconsistenties van de echte wereld. “Het niveau van organisatorische gereedheid in termen van data, processen en IT-infrastructuur is laag”, concluderen de onderzoekers van IDC.
De realiteit is namelijk dat data in de praktijk vaak ‘vervuild’ is. Onvolledige gegevens, onbetrouwbare waarden of moeilijk te detecteren uitschieters kunnen resultaten vertekenen op manieren die onmogelijk te voorspellen en te traceren zijn. Bij veel bedrijven is zo’n AI-proefproject een harde wake-upcall dat hun data en datakwaliteit niet in orde of aangepast zijn. Abdulla Pathan, expert in AI governance & data-driven transformation, illustreert dit met het voorbeeld van HP’s AI-chatbot: “HP’s AI-chatbot werkte goed in gecontroleerde tests, maar faalde in productie door het onvermogen om alle taalvariaties te verwerken.”
Schaalbaarheid en technische problemen
Een van de klassieke valkuilen is dat AI-pilots vaak werken in geïsoleerde (cloud-)omgevingen, maar falen wanneer ze moeten opschalen naar real-time bedrijfsworkloads. Want inzake infrastructuur stellen ze zo hun eisen.
Een bekend voorbeeld hiervan is de case van Mastercard’s AI-fraudedetectiemodel. “Hun AI-systeem detecteerde fraude efficiënt in beperkte trials, maar faalde initieel toen het werd toegepast op miljoenen realtime transacties”, illustreert Pathan.
Ook het intussen beruchte voorbeeld van IBM en McDonald’s aan de selfdrive zit in deze categorie. Zo verwijderde fastfoodketen McDonald’s vorig jaar de AI-besteltechnologie van IBM uit zijn drive-throughs omdat de spraaktechnologie faalde. Het Automated Order Taker-systeem was operationeel in een honderdtal filialen in de Verenigde Staten. Maar de AI-technologie nam bestellingen al te vaak verkeerd op, wat ook zorgde voor hilariteit op sociale media.
Onduidelijke business case
Jan Van Looy, AI-expert bij Deloitte, wijst ook op de duidelijke business case die bij AI-projecten van tel is. “AI is alleen geschikt voor goed begrepen problemen waar menselijke expertise of veel arbeidstijd vervangen kan worden”, stelt hij.
Gezien de hoge kosten van maatwerk AI-oplossingen is, zo benadrukt hij, een sterke business case nodig die past bij de kernactiviteiten van het bedrijf. “Een succesvolle AI-implementatie vereist bovendien acceptatie van een zekere foutmarge, aangezien AI-systemen nooit perfect zijn.”
FOMO – Fear of missing out
Veel AI-pilots missen duidelijke zakelijke doelstellingen, wat leidt tot nul meetbare impact. Dit komt deels door hoge verwachtingen en externe druk. “Gen AI proof of concepts worden vandaag in het bedrijfsleven in het algemeen veel gemakkelijker goedgekeurd dan andere technologieën”, zo merkte Jason Andersen, vice-president en hoofdanalist bij Moor Insights & Strategy, op in CIO.com. “En dat is voornamelijk vanwege druk van CEO’s en besturen.”
Het is namelijk zo dat de meeste van deze Gen AI-initiatieven ontstaan op bestuursniveau. En daar leeft, volgens Andersen, toch vaak een FOMO of Fear Of Missing Out-gevoel. Ook de berekeningen naar de zogenaamde ROI of return on investment worden beïnvloed door een zekere mate van urgentie.
Regelgevende kwesties
Regelgeving speelt ook een rol, want op juridisch vlak bevindt AI zich nog vaak in een grijze zone. En zodra het ernstig wordt, gaan de alarmbellen af op de juridische dienst. Zo kan de angst voor juridische en ethische complicaties veelbelovende AI-projecten in de kiem smoren. AI-systemen die gevoelige klantgegevens verwerken, worden vaak geblokkeerd vanwege transparantie- en veiligheidsproblemen.
Ook de noodzaak om te voldoen aan veranderende regelgeving vormt een grote uitdaging, zeker in sectoren waar privacy en gegevensbescherming strikt gereguleerd zijn.
Gebrek aan aanpassingsvermogen
Artificiële intelligentie faalt niet door de technologie, maar door de uitvoering”, stelt Abdulla Pathan. Hij wijst erop dat een AI-project geen traditioneel softwareproject is. “Maar eerder een dynamisch systeem dat leert, zich aanpast en voortdurende verfijning vereist.” Dit fundamentele verschil verklaart volgens hem waarom zoveel AI-projecten struikelen in de overgang van concept naar praktijk.
Het is daarom dat AI constante finetuning vereist, maar de meeste bedrijven slagen er niet in om AI-modellen te monitoren en te verfijnen. Het opzetten van een systeem dat voortdurend de prestaties van een AI-model bewaakt en test, vormt vaak het grootste deel van een project.
Politieke factoren en weerstand tegen verandering
Dat is en blijft een klassieker bij alle (IT-)projecten en speelt ook hier. De scheiding tussen innovatie en dagelijkse operaties in veel bedrijven kan leiden tot politieke strijd, wat AI-projecten om de verkeerde redenen kan doen mislukken.
Het introduceren van AI in een organisatie betekent vaak het wijzigen van bestaande praktijken en verhoudingen. En mensen veranderen nu eenmaal niet zo graag. “Dit betekent dat sommige belanghebbenden voorstander zullen zijn en anderen zich zullen verzetten omdat ze privileges, die verbonden zijn aan unieke vaardigheden, dreigen te verliezen”, aldus Jan Van Looy. “Of omdat ze bang zijn volledig te worden geautomatiseerd.”
Ze zijn bedoeld om te mislukken
Misschien wel de meest intrigerende reden is dat veel AI-proofs-of-concept eigenlijk bedoeld zijn om te mislukken: ze vormen een onderdeel van een bredere strategie. “Het is onmogelijk om precies te voorspellen hoe goed een AI-model zal presteren op een complex nieuw probleem”, merkt Van Looy op. Daarom is het als bedrijf volgens hem een goede praktijk om een trechteraanpak te gebruiken: ideeën verzamelen voor use cases, diegene selecteren met de hoogste kosten-batenverhouding, proofs-of-concept (PoC’s) ontwikkelen en prestaties beoordelen.
Veel PoC’s blijven, volgens hem, in dat laatste stadium omdat ze onderpresteren of omdat de aanpak niet past. Dit lijkt misschien een verlies, maar dat is het niet. Of hoe ook bij AI-projecten het principe van failing fast van tel kan zijn. “Je moet ook weten dat de investering in zo’n proof of concept slechts een fractie vertegenwoordigt van de kosten die nodig zijn voor een volledige oplossing.”