Een praktische manier om te beoordelen of AI-antwoorden worden onderbouwd met nauwkeurig bewijs in plaats van vage verwijzingen en ‘retrieval theater’.
De Grounding Depth Index meet hoe grondig AI-gegenereerde beweringen zijn gekoppeld aan concrete, verifieerbare bronbewijzen—en dus niet alleen of er een bronverwijzing bestaat. Dit is belangrijk bij Generative Engine Optimization, omdat oppervlakkige attributie geloofwaardig kan lijken tot het niet standhoudt bij beoordeling, en dat falen het vertrouwen razendsnel schaadt.
Grounding Depth Index (GDI)-scores meten hoe diep een AI-uitvoer verankerd is in bronmateriaal, op claimniveau. Niet het aantal citaties. Niet linkspamming. Het is een kwaliteitsmaatstaf voor de vraag of elke feitelijke bewering te herleiden is naar een specifiek fragment, tabel, productspecificatie, beleidswebpagina of een rij in een dataset.
Voor GEO-teams is dat cruciaal, omdat generatieve antwoorden binnen seconden worden geaccepteerd of afgekeurd. Als je model voor een prijsclaim een homepagina aanhaalt die in werkelijkheid drie klikken dieper in een PDF staat, is je verankering zwak, zelfs als het antwoord er verzorgd uitziet.
Een bruikbaar GDI-model beoordeelt doorgaans drie onderdelen: claim coverage, sourcespecificiteit en matchnauwkeurigheid. Coverage kijkt naar hoeveel feitelijke uitspraken ondersteuning hebben. Specificiteit vraagt of de ondersteuning wijst naar een exacte sectie, URL-fragment, tabel of quote. Nauwkeurigheid controleert of de aangehaalde bron de claim echt ondersteunt in plaats van alleen trefwoorden te delen.
In de praktijk scoren teams GDI op een schaal van 0-1 of 0-100. Een ruwe leidraad:
GDI is geen Google-rangschikkingsfactor. Laten we het precies zeggen. Google Search publiceert geen “Grounding Depth Index” en Google heeft niet gezegd dat het deze metric rechtstreeks gebruikt. Maar het onderliggende gedrag telt wel, omdat onbevestigde AI-content vaak faalt op de signalen die wél belangrijk zijn: vertrouwen, nauwkeurigheid, editoriale beoordeling en gebruikerstevredenheid.
John Mueller van Google heeft herhaaldelijk benadrukt dat contentkwaliteit niet wordt “gered” door de productiemethode. In 2025 benadrukte hij opnieuw dat het draait om bruikbare, accurate content, niet om of AI heeft geholpen het te schrijven. Zelfde norm. Andere workflow.
Voor SEO-operations is GDI een controlemateriaal. Gebruik het om promptversies, RAG-configuraties of leveranciers van modellen met elkaar te vergelijken. Als één opzet van 0.52 naar 0.79 gaat terwijl de volledigheid van antwoorden stabiel blijft, is dat een echte verbetering. Volg het naast je handmatige fact-check-slaagpercentage, het aantal citation errors en engagement downstream in GSC.
De meeste teams hebben geen onderzoekswaardige, “research-grade” framework nodig. Ze hebben een herhaalbare aanpak nodig. Haal feitelijke claims eruit, koppel elke claim aan een bronfragment en weeg vervolgens de matchkwaliteit. Ahrefs, Semrush en Moz berekenen GDI niet voor je. Dit is dichter bij een interne QA-metriek dan bij een standaard SEO-platform-KPI.
Gebruik Screaming Frog om te controleren of geciteerde URL’s 200-statuscodes teruggeven en indexeerbaar zijn. Gebruik GSC om te monitoren of pagina’s met een hogere bron-transparantie beter klikken en vertoningen vasthouden na publicatie. Als je antwoordformats test, kan Surfer SEO helpen om de on-page structuur te standaardiseren, maar het valideert geen feitelijke verankering.
De kanttekening: GDI kan worden “gemanipuleerd”. Een model kan veel citaties toevoegen en nog steeds de bron verkeerd interpreteren. Hoge citatiedichtheid is geen hoge waarheid. Je hebt nog steeds menselijke review nodig op steekproeven van outputs, zeker bij YMYL-onderwerpen en overal waar brondocumenten wekelijks wijzigen.
Kortom: GDI is nuttig omdat het je dwingt een moeilijke vraag te stellen. Is dit antwoord snel te controleren en met vertrouwen te verdedigen? Als dat niet zo is, is de content niet klaar, hoe vlot het ook klinkt.
Een monitoringscore om te detecteren wanneer AI-outputpatronen afwijken van een …
Betere trainingsinputs zorgen voor betere AI-uitvoer, maar de winst hangt …
Hoe op vectoren gebaseerde relevantie beïnvloedt welke pagina’s, passages en …
Hoe actueel de bronnen achter AI-antwoorden zijn, en waarom verouderde …
Houd je AI-antwoorden verankerd aan hyperactuele bronnen en behoud zo …
Een testframework om te meten hoe generatieve engines je onderwerpen …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free