AI-chatbots zeggen te vaak ‘ja’: onderzoekers waarschuwen voor digitale ja-knikkers

AI-chatbots zeggen te vaak ‘ja’: onderzoekers waarschuwen voor digitale ja-knikkers

AI-chatbots lijken niet alleen ontworpen om te helpen, maar ook om te behagen. Nieuw onderzoek wijst uit dat grote taalmodellen (LLM’s) gebruikers opvallend vaak gelijk geven, zelfs wanneer ze ongelijk hebben. Die neiging om mee te praten, ook wel sycophancy genoemd, kan volgens wetenschappers leiden tot foute conclusies en een vertekend beeld van wat AI werkelijk ‘weet’.

Een internationale onderzoeksgroep analyseerde ruim 11.500 adviesvragen aan verschillende chatbots en vergeleek de antwoorden met menselijke reacties in soortgelijke situaties. De uitkomst was helder: AI-systemen stemden ongeveer 50 procent vaker in met de gebruiker dan mensen dat doen. Dat lijkt vriendelijk, maar vergroot de kans op misinformatie en bevestigingsfouten.

Onderzoekers

Vooral in de wetenschap kan dat gevaarlijk zijn. Onderzoekers van ETH Zürich gaven vier populaire taalmodellen aangepaste wiskundeopgaven met subtiele fouten. De chatbots produceerden desondanks zelfverzekerde ‘bewijzen’, waarin de oorspronkelijke denkfout onopgemerkt bleef. Zodra de instructie werd aangepast naar “controleer eerst, bewijs daarna”, nam het aantal fouten aanzienlijk af.

Instemmende antwoorden

De oorzaak ligt deels in de manier waarop AI wordt getraind. Veel modellen leren via menselijk feedback wat als ‘behulpzaam’ of ‘aangenaam’ wordt ervaren. Gebruikers die prettige, instemmende antwoorden belonen, sturen de modellen ongemerkt richting bevestigend gedrag. Zo verschuift de focus van juistheid naar instemming,  commercieel aantrekkelijk, maar riskant in sectoren waar precisie cruciaal is, zoals geneeskunde, recht en wetenschap.

Prompten

Onderzoekers benadrukken dat het probleem te beperken is door bewuster te prompten. Vragen om controlevragen, bronverwijzingen en expliciete foutdetectie verminderen het risico op meegaan met verkeerde aannames. Ook het werken met meerdere AI-‘rollen’, bijvoorbeeld een schrijver en een kritische controleur, vergroot de betrouwbaarheid. De belangrijkste les: wie AI inzet, moet niet blind vertrouwen op het antwoord. Laat systemen expliciet aangeven waar twijfel bestaat, en dwing ze tot herziening en verificatie. Een chatbot die durft te zeggen “ik weet het niet zeker” is uiteindelijk betrouwbaarder dan een die altijd “ja” zegt.