Een renderrapportage-betrouwbaarheidsmetric die aangeeft hoe vaak bots daadwerkelijk een indexeerbare pagina-uitvoer ontvangen, in plaats van kapotte, gedeeltelijke of time-out snapshots.
De Snapshot Capture Rate is het percentage crawlpogingen dat eindigt met een bruikbare, gerenderde HTML-snapshot die een zoekmachine kan verwerken. Dit is belangrijk omdat renderingsproblemen vaak pas zichtbaar worden in rangvolgtijdtools wanneer het verkeer al is gedaald.
Snapshot Capture Rate is een maat voor rendering-betrouwbaarheid: het aandeel crawlpogingen dat resulteert in een volledige, indexeerbare snapshot van een URL. In gewone taal vertelt het je hoe vaak bots de pagina ophalen die je denkt dat ze zouden moeten ophalen. Dit is belangrijk omdat sites met veel JavaScript er voor gebruikers prima uit kunnen zien, maar voor crawlers tóch kunnen falen.
De werkende formule is eenvoudig: succesvolle gerenderde snapshots / totale crawlpogingen x 100. Als SCR daalt van 99% naar 92%, is dat geen afrondingsverschil. Op een e-commercesite met 500.000 URL’s kan dit betekenen dat tienduizenden pagina’s tussendoor niet crawlbaar zijn of slechts gedeeltelijk worden gerenderd.
SCR is in feite rendering-uptime voor search. Het helpt rankingverliezen te verklaren die standaard technische checks missen: geblokkeerde JS-bestanden, problemen met hydratatie, time-outs aan de edge, WAF-uitdagingen, onbetrouwbare API’s en CDN-issues. Screaming Frog kan geblokkeerde resources en verschillen in gerenderde HTML signaleren. GSC kan crawl-anomalieën en wijzigingen in de geïndexeerde status tonen. Serverlogs vertellen je of bots 200’s kregen die vervolgens toch in rommel werden gerenderd.
Hier gaan veel teams slordig mee om. Ze monitoren statuscodes, niet het gerenderde resultaat. Een 200-antwoord is geen succes als de productgrid nooit laadt.
Er is geen native Google-metriek met de naam Snapshot Capture Rate. Dit is een operationele SEO-metriek, geen officiële rankingfactor. Je moet hem opbouwen uit meerdere bronnen:
Een praktische benchmark: een gezonde SCR per template zou op stabiele sites meestal boven 97% moeten liggen. Onder 95%, ga onderzoeken. Onder 90%, behandel het als een incident. Productdetailpagina’s, artikelsjablonen en gefacetteerde categoriepagina’s moeten apart worden gevolgd, omdat één kaprond onderdeel maar één sectie kan slopen.
Dit is de kanttekening: SCR is alleen zo goed als je definitie van een “succesvolle snapshot.” Als je headless test zegt dat de pagina is gerenderd, maar de canonical ontbreekt, de schema-validatie faalt of de hoofdinhoud pas na je time-out is geladen, dan liegt je metriek. Valse zekerheid komt vaak voor.
Daarnaast gedraagt Googlebot zich niet precies hetzelfde als je Chrome-gebaseerde renderer. John Mueller van Google heeft herhaaldelijk gezegd dat externe tools rendering kunnen benaderen, maar niet perfect kunnen repliceren wat Google doet. Gebruik SCR als engineering-control-metriek, niet als directe proxy voor indexatie of rankings.
Goede teams zetten alerts op dalingen van 2 tot 3 procentpunten op template-niveau dag-op-dag. Ze vergelijken ruwe HTML met gerenderde HTML in Screaming Frog, valideren geblokkeerde resources in GSC en controleren of zichtbaarheid daalt in Ahrefs of Semrush met dagen of weken vertraging ten opzichte van het renderingprobleem. Als je React, Vue of Next.js op schaal draait, is deze metriek niet optioneel. Het is één van de weinige manieren om stille rendering-regressies te ontdekken voordat Finance het merkt.
Optimaliseer de Snapshot Capture Rate om renderfouten voor te blijven, …
Een praktische manier om te meten hoeveel kansen op gestructureerde …
Een metriek op basis van velddata die aangeeft hoeveel echte …
Edge meta-injectie maakt onmiddellijke aanpassingen op CDN-niveau aan titels, (meta)beschrijvingen …
Weet in één oogopslag hoeveel pagina’s Google én gebruikers tevredenstellen …
Kies SSR, CSR, prerendering of hybride rendering op basis van …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free