Hoe betrouwbaar zijn Google’s AI overviews?

Eén op de tien antwoorden bevat fouten

Hoe betrouwbaar zijn Google’s AI overviews?

Sinds de integratie van AI Overviews is de rol van Google fundamenteel veranderd. De zoekmachine fungeerde decennialang als curator die gebruikers naar relevante bronnen leidde. Nu treedt het bedrijf op als een uitgever die zelf antwoorden formuleert. Maar hoe betrouwbaar zijn die AI-antwoorden eigenlijk? The New York Times zocht het uit en daaruit blijkt dat gemiddeld een op de tien gegeven antwoorden foutieve informatie bevat.

Recente analyses, uitgevoerd met benchmarks zoals SimpleQA, laten een tweeledig beeld zien, schrijft de krant. Enerzijds is er sprake van technologische vooruitgang, die ook meetbaar is. Met de overgang van Gemini 2 naar Gemini 3 steeg de nauwkeurigheid van de AI-antwoorden van circa 85 procent naar 91 procent.

Zo’n foutmarge van 9 procent klinkt misschien acceptabel, maar op de schaal van Google is de impact gigantisch. Jaarlijks worden er namelijk biljoenen zoekopdrachten uitgevoerd via Google. Met zo’n foutmarge, zorgt dat nog steeds voor miljoenen foutieve antwoorden per uur.

Het probleem van ‘ungrounded’ informatie

Een zorgwekkende trend die naar voren komt bij de nieuwere modellen, is de toename van zogeheten ungrounded antwoorden. Dit houdt in dat de AI een feitelijk juist antwoord geeft, maar verwijst naar bronnen die dat antwoord niet ondersteunen of dat niet volledig doen.

Uit onderzoek blijkt dat bij Gemini 3 meer dan de helft van de correcte antwoorden gekoppeld is aan bronnen die de informatie niet verifiëren. Dit creëert een ‘black box’-effect. De gebruiker krijgt immers een antwoord te zien dat weliswaar klopt, maar de verifieerbaarheid ervan laat te wensen over.

Brongebruik en de hallucinatie-factor

De bronnen die Google selecteert voor de AI Overviews variëren sterk in kwaliteit. Naast officiële instanties en betrouwbare nieuwsmedia, put het systeem regelmatig uit user-generated content van platforms zoals Facebook en Reddit. Wanneer de AI onjuiste informatie verstrekt, blijkt er een correlatie te zijn met het gebruik van deze minder strikt gemodereerde bronnen.

Daarnaast worstelt de technologie met drie specifieke technische uitdagingen. Ten eerste betreft het interpretatiefouten. Daarbij vindt de AI de juiste bron wel, maar trekt verkeerde conclusies uit de teksten. Ook tegenstrijdigheden zijn een uitdaging. Zelfs als een gelinkte bron het juiste antwoord bevat, kan de AI noemen dat er “geen informatie bekend is”. Tot slot zijn antwoorden soms inconsistent. Exact dezelfde zoekvraag kan op verschillende momenten leiden tot andere antwoorden, die soms zelfs tegenstrijdig zijn.

Kwetsbaarheid van AI-antwoorden

Misschien wel de grootste uitdaging voor de IT-sector is de vatbaarheid van AI Overviews voor manipulatie. SEO verschuift naar GEO oftewel Generative Engine Optimization. Experimenten tonen aan dat de AI relatief eenvoudig kan worden misleid door het publiceren van specifieke, zelfverklaarde claims op blogs. Als de AI deze informatie oppikt als een feit, wordt onjuiste informatie razendsnel gepromoveerd tot een ‘gezaghebbend’ antwoord bovenaan de pagina.

Tip: Zo verwijder je AI Overviews van Google uit je zoekresultaten

Dubbelchecken blijft de norm

Google zelf dekt zich in met disclaimers dat de AI fouten kan maken. De vraag blijft of de gemiddelde gebruiker zich hiervan bewust is. Terwijl tech-giganten strijden om de meest krachtige modellen, verschuift de verantwoordelijkheid voor fact-checking steeds meer naar de eindgebruiker.

AI-modellen geven antwoorden op basis van kansberekening en niet op basis van feiten. Daarom geldt voor iedereen hetzelfde advies. Vertrouw nooit blindelings op een enkele bron, ook niet als de AI-antwoorden er heel betrouwbaar uitzien.