Een praktische manier om te beoordelen of gepagineerde (template) pagina’s voldoende unieke waarde toevoegen om crawl-, index- en interne linkwaarde (internal link equity) te rechtvaardigen.
Template-entropie meet hoe groot het deel van een pagina echt specifiek is voor die pagina, in plaats van herhaalde template-boilerplate. Dit is belangrijk omdat grote sets met bijna identieke URL’s het crawlbudget verspillen, moeite hebben om geïndexeerd te worden en zelden hoger komen dan laagwaardige posities op lange-staart zoekwoorden.
Template-entropy is een werkbare SEO-metriek die aangeeft hoeveel unieke informatie een pagina bevat ten opzichte van herhaalde template-elementen. Op grote sites telt dit snel: als 10.000 locaties-, product- of categorie-URL’s 80% van hun HTML en content delen, behandelt Google ze vaak als laagwaardige crawl-doelen.
Dit is geen officiële Google-metriek. Toch is het nog steeds nuttig. Het biedt SEO-teams een concrete manier om dunne, template-gedreven pagina’s te auditen voordat ze een indexatieprobleem worden in Google Search Console.
Op basisniveau vergelijk je pagina-specifieke content met boilerplate. Dat kan bodytekst bevatten, productspecificaties, reviews, FAQ’s, interne links, afbeeldingen, velden voor structured data en lokale datapakketten (modules). Een simpele versie is:
Unieke paginacomponenten / totaal aantal paginacomponenten
Sommige teams berekenen dit alleen met tekentokens. Betere teams nemen ook gerenderde HTML-blokken, herhaalde componenten en eigenschappen van structured data mee. Screaming Frog exports, aangepaste Python-scripts en BigQuery zijn gangbare opzetten. Sitebulb werkt ook, maar Screaming Frog is meestal sneller voor een eerste segmentatie.
Het belangrijkste use case is prioritering. Als een faceted category-set gemiddeld 18% unieke copy heeft en een set met stadspagina’s gemiddeld 42%, weet je waar je als eerste moet ingrijpen.
Ahrefs en Semrush kunnen helpen om te kwantificeren of deze pagina’s überhaupt een footprint voor non-brand zoekwoorden aantrekken. Als 5.000 pagina’s ranken voor minder dan 200 zoekwoorden totaal buiten branded termen, doet de template waarschijnlijk te weinig.
Een praktische benchmark: pagina’s onder 25% tot 30% unieke content zijn meestal riskant, tenzij de vraag hoog is en de pagina sterke externe signalen heeft. Pagina’s boven 40% presteren doorgaans beter, zeker als de unieke content nuttig is en niet “aangevuld”.
Meer entropy betekent niet automatisch betere SEO. Door 600 woorden AI-vulling toe te voegen, een gedraaide FAQ en een voorraadafbeeldingengalerij kun je de score verhogen terwijl de pagina verslechtert. Google’s John Mueller heeft herhaaldelijk gezegd dat alleen uniciteit niet genoeg is; de pagina moet nog steeds een reden hebben om te bestaan. Dat is precies het onderdeel waar zwakke audits aan voorbijgaan.
Bovendien verdienen sommige pagina’s met lage entropy wél indexatie. Productvarianten, juridische pagina’s en strak gestructureerde voorraad-URL’s kunnen goed ranken met beperkte unieke copy, mits de vraag, links en sitestructuur sterk zijn. Gebruik entropy als diagnostisch model, niet als rankingfactor.
De praktische oplossing is simpel: voeg modules toe die de besliswaarde van de pagina veranderen. Echte reviews. Voorraad op vestigingsniveau. Prijstabellen. Originele vergelijkingsdata. Lokaal bewijs. Geen extra generieke alinea waar Surfer SEO zegt dat die er “moet” staan.
Een praktische manier om te meten of één type template …
Identificeer sjabloongestuurde duplicatie en optimaliseer zo het crawlbudget, versterk relevantiesignalen …
Elimineer de verwatering van het indexbudget om crawl equity terug …
Hash-gebaseerde URL’s kunnen indexering verstoren, crawl-capaciteit verspillen en pagina’s die …
Wijs crawlbudget toe aan sjablonen met hoge marges, verminder index …
Met user-agentgegevens kun je echte zoekcrawlers scheiden van gespoofte bots, …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free