Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →TL;DR: Een AI-visibility-audit is geen lijst prompts waarin ChatGPT je noemt — dat is het bonnetje, niet de diagnose. Een bruikbare audit meet aanwezigheid, paraatheid en zakelijke impact en vertaalt die inzichten vervolgens in verbeteringen op je eigen site, in externe vermeldingen, citaties en entity-consistentie.
Ik vertrouw AI-visibility-dashboards niet op voorhand. Te veel tools veranderen twintig prompts in een grafiek en noemen dat strategie (en de meeste van die grafieken schommelen wekelijks om redenen die niets met jouw werk te maken hebben). Bij seojuice.com, en daarvoor bij mindnow, zag ik hetzelfde patroon bij klassieke SEO-audits op vadimkravcenko.com en bij klantensites: meten is eenvoudig, de interpretatie is waar het geld verdampt.
De meeste mensen die zoeken op “ai visibility audit” verwachten een spreadsheet met prompts. Prima. Die heb je nodig. Maar als de audit daar stopt, wordt het duur toneel. Je hebt bewezen dat een AI-systeem je op een dinsdag noemde, bij één prompt, in één antwoordformaat. Gefeliciteerd. En nu?
Aleyda Solis vat het strakker samen:
“Presence laat zien waar het merk verschijnt, Readiness verklaart waarom het er zo uitziet, en Business Impact toont of die zichtbaarheid meetbare waarde oplevert.”
Bron: Aleyda Solis, International SEO Consultant
Dat is de ruggengraat van een nuttige audit. Presence toont wat er is gebeurd. Readiness legt uit waarom het gebeurde. Business Impact bepaalt of het de moeite waard is om het in de roadmap van dit kwartaal op te nemen.
| Resultaat | Wat het goed dekt | Wat het mist |
|---|---|---|
| Profound: “How to Run an AI Visibility Audit” | Solide workflow voor promptpanels, engine-dekking en citation-tracking. | Het kan de audit laten lijken op monitoring in plaats van diagnose. |
| BrightEdge: “Generative Engine Optimization Methodology” | Goede enterprise-aanpak voor GEO, citation-share en concurrent-co-citation. | De lezer heeft nog steeds scoringsregels en prioriteitstelling nodig. |
| Otterly.AI: “How to Audit AI Search Visibility for Your Brand” | Nuttige richtlijnen voor promptselectie, AI Overviews en rapportagecadans. | Het onderschat business impact en zero-click-invloed. |
Het gat is praktisch. De topposities laten zien hoe je controleert óf AI-systemen een merk noemen en citeren. Ze gaan niet ver genoeg in het koppelen van promptbevindingen aan entity-readiness, bronkwaliteit, off-site-autoriteit en pipeline. Dáár begint een AI-visibility-audit zichzelf terug te verdienen.
Een AI-visibility-audit meet hoe AI-antwoordengines je merk beschrijven, aanbevelen, citeren, vergelijken en uitsluiten in koop-, research- en supportprompts. Het is deels generative engine optimization, deels entity-opschoning, deels content-audit en deels attributiewerk (één van die vier draagt meestal de kosten – zoek uit welke).

Een klassieke SEO-audit begint meestal bij pagina’s, zoektermen, crawlbaarheid, links en organisch verkeer. Een AI-visibility-audit start bij prompts, entiteiten, citaties en antwoordgedrag. Ze gebruikt nog steeds SEO-bewijsmateriaal, maar verandert de eenheid van zichtbaarheid.
“SEO is no longer just about being ‘search-visible,’ it’s also about being ‘AI-visible.’”
Bron: Jim Yu, oprichter en CEO van BrightEdge
Dat betekent niet dat je je SEO-programma moet vervangen door prompt-monitoring. James Cadwallader heeft gelijk om die luie versie van het argument te weerspreken:
“There’s this idea that SEO is dead, and I very much disagree. Our business is built on the shoulders of SEO, but this is way bigger.”
Bron: James Cadwallader, mede-oprichter en CEO van Profound
De auditoutput moet concreet zijn: een promptpanel, engine-dekking, brand presence-rate, recommendation-rate, citation-share, concurrent-co-mentions, sentiment, bronlacunes, entity-gaten en een schatting van business impact. Krijg je alleen een visibility-score, dan heb je een score die ongeveer tien minuten nuttig voelt.
Het promptpanel is de steekproef van de audit—als die slecht is, liegt elk volgend diagram beleefd. Hier importeren teams doorgaans te snel keyword-denken. Prompts zijn geen zoekwoorden met wat extra woorden. Ze bevatten taken, beperkingen, bezwaren, vergelijkingen en verborgen koopfasen.

Thomas Peham legt uit waarom dat ertoe doet:
“Consumers use those platforms fundamentally differently. We need to think about prompts — and how we show up for those different prompts.”
Bron: Thomas Peham, mede-oprichter en CEO van Otterly.AI
| Prompttype | Voorbeeldpatroon | Wat het test |
|---|---|---|
| Categorie-ontdekking | “Best [category] tools for [use case]” | Of het merk überhaupt wordt overwogen |
| Vergelijking | “[Brand] vs [competitor] for [audience]” | Of het model de positionering begrijpt |
| Aanbeveling | “What should I use for [problem]?” | Of het merk wordt voorgesteld zonder naam |
| Validatie | “Is [brand] good for [specific job]?” | Of claims, bewijs en bezwaren bekend zijn |
| Alternatief zoeken | “Alternatives to [competitor]” | Of het merk verschijnt in concurrent-gedreven vraag |
| Lokale of verticale variant | “Best [category] for [industry/country]” | Of zichtbaarheid standhoudt buiten generieke prompts |
Gebruik 50 tot 150 prompts voor een eerste audit. Kleinere sites kunnen met 30 beginnen als de promptset scherp is. Enterprise-merken hebben aparte panels per productlijn, markt en doelgroep nodig.
Draai het panel in ChatGPT, Perplexity, Gemini, Claude en Google AI Overviews waar relevant (ja, zelfs Claude—technische kopers gebruiken het voor research). Houd dezelfde prompt, dezelfde engine, dezelfde datum en waar mogelijk dezelfde locatiestand. Doe niet alsof resultaten vaststaan. Behandel de audit als steekproeven, niet als een ranglijst in steen gebeiteld.
Dit is het voor de hand liggende deel van de audit. Houd het strak. Je meet waar het merk verschijnt, hoe het verschijnt, of het wordt geciteerd en wie er naast staat.

| Metriek | Betekenis | Waarom het ertoe doet |
|---|---|---|
| Mention-rate | Hoe vaak het merk verschijnt | Toont basis-AI-bewustzijn |
| Recommendation-rate | Hoe vaak het merk actief wordt aanbevolen | Scheidt passieve vermelding van koopinvloed |
| Citation-rate | Hoe vaak het merk of zijn pagina’s worden geciteerd | Laat broninclusie zien, niet alleen naamherinnering |
| Citation-share | Jouw citaties gedeeld door alle citaties | Maakt vergelijking met concurrenten mogelijk |
| Co-citation | Merken en bronnen die naast jou verschijnen | Onthult de vergelijkingsset van het model |
| Sentiment en nauwkeurigheid | Positief, neutraal, fout of verouderd | Vindt reputatie- en entity-problemen |
| Brondiversiteit | Domeinen die het antwoord ondersteunen | Laat zien of het model leunt op jouw site, reviews, media, docs of directories |
Cyrus Shepard definieert AI-citaties als klikbare links naar bronnen die AI-engines gebruiken om hun antwoorden te onderbouwen. Dat klinkt basaal, maar het verandert de audit. Een vermelding zonder citatie kan nog steeds een koper beïnvloeden. Een citatie zonder aanbeveling kan alleen betekenen dat je pagina een feit leverde.
Ik zag dit in een B2B-workflow-audit: het merk had een citation-rate van 38% maar een recommendation-rate van 11%. Het model gebruikte zijn documentatie voor definities en raadde daarna twee bekendere concurrenten aan zodra de prompt richting aankoop ging. Meer prompts hadden dat niet opgelost. Betere bewijslast wel.
“Een merk kan nu zichtbaar worden, aanbevolen worden en materieel invloed hebben op een aankoopbeslissing in AI-search zonder noodzakelijkerwijs een klik te genereren. Gemeten AI-verkeer is de ondergrens, niet de bovengrens, van AI’s bijdrage.”
Bron: Aleyda Solis, International SEO Consultant
Gemiddeld niet te vroeg alles in één visibility-score. Een merk kan vaak worden geciteerd maar zelden worden aanbevolen. Een ander wordt vaak aanbevolen via externe bronnen maar nauwelijks direct geciteerd. Dat zijn verschillende problemen.
Presence vertelt wat er gebeurde. Readiness vertelt wat je moet repareren. Dit is het deel dat de meeste AI-visibility-audits overslaan omdat het trager, rommeliger en lastiger te automatiseren is.

Controleer of het merk op dezelfde manier wordt beschreven op de website, LinkedIn, Crunchbase, G2, Capterra, Wikidata waar relevant, reviewsites, partnerpagina’s, mediavermeldingen en vergelijkingsartikelen.
“Als dat niet geharmoniseerd is, als dat niet coherent is op het internet, heeft ChatGPT meer moeite om te herkennen wie we echt zijn en wat we precies doen.”
Bron: Thomas Peham, mede-oprichter en CEO van Otterly.AI
Controleer naam, categorie, doelgroep, features, prijsformulering, founder-info, locatie, productnamen en concurrentenset. Entity-drift is saai tot het je uitsluiting kost (ik had dit jarenlang mis). Als één profiel zegt “AI-SEO-platform,” een ander “content-automation-tool,” en een oud artikel je een agency noemt, verwacht dan geen schone samenvattingen.
AI-systemen hebben schone, crawlbare, citeerbare pagina’s nodig om te citeren. Controleer productpagina’s, documentatie, pricing, casestudy’s, vergelijkingspagina’s, begrippenlijsten, onderzoekspagina’s en auteurspagina’s. Hier helpt een klassieke SEO-auditchecklist nog steeds.
Als een pagina niet kan worden gecrawld, vertrouwd of begrepen, zal die zelden een goede antwoordbron worden. Dat reduceert AI-visibility niet tot SEO; het betekent alleen dat slechte technische fundamenten ook nieuwe kanalen breken.
Jim Yu’s punt geldt hier direct:
“Autoriteit en geloofwaardigheid matter more than ever because AI engines are increasingly shaping the answers that drive decisions.”
Bron: Jim Yu, oprichter en CEO van BrightEdge
Ryan Law, samengevat Ahrefs-onderzoek, geeft de audit een scherper signaal:
“De sterkste correlatie, héél sterk, bijna 0,67, was branded webmentions.”
Bron: Ryan Law, Director of Content Marketing bij Ahrefs
Audit ongekoppelde vermeldingen, third-party-reviews, industrielijsten, analistenpagina’s, podcasttranscripten, partnerpagina’s, nieuwsvermeldingen, vergelijkingsposts en community-discussies (ongekoppeld telt ook). De nuttige vraag is niet “hebben we links?” De betere vraag is: beschrijft het web ons zoals wij willen dat AI-systemen ons samenvatten?
Koppel zwakke prompts terug aan ontbrekend bewijs. Als AI-systemen je niet aanbevelen voor “best X for agencies,” controleer dan of je agency-specifiek bewijs hebt. Een generieke featurepagina dekt die klus zelden.
Een ontbrekende citatie vraagt mogelijk om een betere bronpagina. Een fout antwoord kan entity-opschoning vereisen. Een zwakke aanbeveling kan third-party-bewijs nodig hebben. Een antwoord dat alleen concurrenten noemt kan categorie-educatie en vergelijkingscontent rond entity SEO, positionering en proof vereisen.
AI-visibility die nooit de pipeline bereikt is reputatie-trivia. Maar AI-impact alleen beoordelen op referral-traffic is ook gemakzuchtig, want veel AI-antwoorden beïnvloeden beslissingen zonder klik.
| Impactsignaal | Hoe je het meet |
|---|---|
| AI-referralsessies | GA4, serverlogs, referrer-patronen, analytics-annotaties |
| Geassisteerde conversies | CRM-notities, demogformulieren, salescalls, self-reported attribution |
| Stijging branded search | Google Search Console en paid-search-query-veranderingen |
| Stijging direct verkeer | Campagne-annotaties en zorgvuldige vergelijkingsperioden |
| Verandering in sales-taal | Vraag waar leads voor het eerst een claim of vergelijking hoorden |
| Waarde per promptcluster | Koppel high-intent clusters aan conversiewaarde |
Ken elke promptcluster een score toe op basis van zakelijke waarde en huidige zwakte. Repareer eerst clusters met hoge waarde en lage readiness. Een prompt met lage zichtbaarheid maar zonder koopintentie kan wachten. Een concurrentvergelijkingsprompt die enterprise-demo’s beïnvloedt niet.
Dit is ook waar denken over zero-click search nuttig wordt. De koper klikt misschien nooit vanuit het AI-antwoord, maar herhaalt de vergelijking wel in een salescall twee weken later.
Gebruik een scorecard per promptcluster, niet per losse prompt. Gemiddeld vervolgens de laag-scores afzonderlijk. Verberg een readiness-probleem niet in één globale “AI-visibility-score.”

| Laag | Metriek | Score 0 | Score 1 | Score 2 |
|---|---|---|---|---|
| Presence | Merk genoemd | Verschijnt nooit | Verschijnt soms | Verschijnt consequent |
| Presence | Merk aanbevolen | Niet aanbevolen | Genoemd maar zwak | Aanbevolen met redenen |
| Presence | Citatiekwaliteit | Geen citaties | Zwakke of indirecte bronnen | Sterke relevante bronnen |
| Readiness | Entity-consistentie | Conflicterende beschrijvingen | Meestal in lijn | Duidelijk en consistent |
| Readiness | Brondekking | Belangrijke pagina’s ontbreken | Gedeeltelijke dekking | Sterke pagina’s voor elke cluster |
| Readiness | Off-site-bewijs | Weinig third-party-bewijs | Enkele vermeldingen | Sterke vermeldingen op vertrouwde plekken |
| Impact | Intent-waarde | Alleen informatief | Gemengde intent | Hoge koopintentie |
| Impact | Attributiesignaal | Geen signaal | Zwak signaal | Duidelijk geassisteerd of direct signaal |
Voor “best AI SEO tools for SaaS” kan seojuice.com bijvoorbeeld een middelhoge presence hebben als het af en toe wordt genoemd, lage citatiekwaliteit als third-party-pagina’s het niet opnemen, en hoge impact als die prompt aansluit bij sign-ups. De volgende stap is niet meer prompts. Het is bronopbouw, entity-versterking en beter bewijs.
Die scheiding is belangrijk. Eén score creëert één backlog—en die backlog bevoordeelt meestal makkelijke fixes boven waardevolle.
Een audit hoort te eindigen met besluiten, niet met screenshots. Organiseer fixes per diagnose.
| Auditbevinding | Waarschijnlijke oorzaak | Fix |
|---|---|---|
| Merk ontbreekt in categorieprompts | Zwakke categorie-associatie | Maak categoriepagina’s, vergelijkingspagina’s en third-party-vermeldingen |
| Merk genoemd maar niet geciteerd | Slechte brongeschiktheid | Verbeter crawlbare pagina’s, voeg bewijs toe, verduidelijk claims |
| Merk geciteerd maar niet aanbevolen | Zwakke positionering of bewijs | Voeg use-case-bewijs, casestudy’s en review coverage toe |
| Foute feiten verschijnen | Entity-inconsistentie | Maak profielen, directories, schema en oude pagina’s schoon |
| Concurrenten domineren citaties | Sterker off-site-bewijs | Verdien vermeldingen op review-, media-, partner- en industriepagina’s |
| Zichtbaarheid maar geen business-signaal | Slechte meting of prompts met lage waarde | Voeg attributievragen toe en herprioriteer clusters |
De beste fixes gebeuren vaak buiten de eigen site van het merk. Dat is ongemakkelijk—SEO-teams kunnen niet élk AI-antwoordprobleem wegpubliceren. Je hebt misschien review-coverage, partnermeldingen, vergelijkingsvermeldingen, analistenreferenties of beter community-bewijs nodig. Daarom staan brand mentions voor SEO nu dichter bij visibility-meting dan de meeste teams verwachtten.
Voer het promptpanel maandelijks uit. Volg grote verschuivingen, nieuwe citaties, verloren citaties, hallucinaties, verouderde feiten en concurrentiebewegingen. Vernieuw het dashboard niet elke ochtend, tenzij je businessmodel angst is.
Herbouw de audit elk kwartaal. Voeg nieuwe concurrenten toe, verwijder dode prompts, actualiseer marktterminologie, vernieuw scoring voor business impact en bekijk brontekorten. Voer hem opnieuw uit na financieringsrondes, overnames, prijswijzigingen, productlanceringen, rebrands, negatieve pers of grote veranderingen in Google en AI-antwoordformaten.
Cadwalladers voorspelling op categorieniveau is waarschijnlijk juist:
“In de toekomst zal elk bedrijf ter wereld zich intensief bezighouden met hoe AI over hun merk praat, het toont — en op een bepaald moment ermee interageert.”
Bron: James Cadwallader, mede-oprichter en CEO van Profound
Zorg dragen betekent niet staren naar een grafiek. Het betekent een systeem bouwen dat materiële veranderingen opvangt en naar de volgende fix wijst.
Terzijde: als één slecht AI-antwoord de week verziekt, is het auditproces te fragiel. Het doel is niet elk gegenereerd antwoord te winnen; het doel is patronen vinden die het waard zijn om te fixen.
Een AI-visibility-audit is een gestructureerde review van hoe AI-systemen een merk noemen, aanbevelen, citeren en beschrijven in prompts die ertoe doen voor kopers en onderzoekers.
Een SEO-audit start bij pagina’s, rankings, crawlbaarheid, links en organisch verkeer. Een AI-visibility-audit start bij prompts, gegenereerde antwoorden, citaties, entity-begrip en zero-click-invloed. Ze overlappen, maar het zijn verschillende audits.
Begin met ChatGPT, Perplexity, Gemini, Claude en Google AI Overviews. Voeg verticale tools toe als je kopers die gebruiken. Voor veel teams betekent dat AI-search-optimalisatie combineren met platform-specifieke checks.
Een eerste audit kan werken met 50 tot 150 prompts. Kleinere sites kunnen met 30 beginnen als de promptset scherp is. Grotere merken moeten panels splitsen naar product, doelgroep, regio en koopfase.
Voer tracking maandelijks uit en herbouw de audit elk kwartaal. Herhaal na productlanceringen, prijswijzigingen, grote persaandacht, categorieverschuivingen of wijzigingen in Google AI Overviews.
Ja. Vermeldingen, aanbevelingen, citaties, co-citaties, salescall-taal, stijging in branded search en self-reported attribution tellen allemaal. Klikken zijn nuttig, maar onderschatten AI-invloed.
De audit is geslaagd wanneer hij laat zien welke prompts ertoe doen, welke bronnen het antwoord vormgeven, welke feiten fout zijn en welke fixes de moeite waard zijn. SEOJuice helpt teams het promptpanel bouwen, de bevindingen scoren en de resultaten omzetten in een AI-search-optimalisatie-backlog. Heb je eerst de tactische onderdelen nodig? Start dan met Google AI Overviews-optimalisatie of prompt-tracking voor SEO.
no credit card required
No related articles found.