Wanneer templates hetzelfde optimalisatiepatroon herhalen over verschillende pagina-sets, overlapt de zoekintentie en ontstaan er meestal geen sterkere rankings.
Templatecanibalisatie treedt op wanneer een CMS-sjabloon grote groepen pagina’s laat concurreren op dezelfde zoekopdracht(en) met nagenoeg identieke titels, H1’s, ankers en body-tekst. Dat is belangrijk omdat Google moeite heeft om het doel van elke pagina te onderscheiden, waardoor posities, crawl-efficiëntie en interne linkwaarde over te veel URL’s worden verspreid.
Template-cannibalisatie is geen klassieke duplicate content. Het is een schaalbaarheidsprobleem waarbij templates honderden of duizenden URL’s dwingen om achter hetzelfde zoekwoordcluster aan te jagen—meestal via herhaalde title tags, H1’s, interne ankers en dunne boilerplate.
Het resultaat is voorspelbaar: Google ziet meerdere pagina’s met een zwakke onderlinge differentiatie en kiest ze niet consistent. Rankings wiebelen. Het crawl budget wordt verspild. Interne links geven gemengde signalen.
Je ziet het het vaakst bij store locators, city pages, gefacetteerde categorie-URL’s, programmatic SEO-pagina’s, blog tag-archieven en e-commerce productvarianten. Een template genereert dan iets als “Best CRM-software | Merk” over 200 pagina’s, en verandert vervolgens alleen één term die de zoekintentie niet wijzigt.
In Google Search Console is het patroon duidelijk. Meerdere URL’s verdienen vertoningen vanuit dezelfde queryset, maar geen van alle breekt door naar posities 1-3. In Ahrefs of Semrush is de overlap in zoekwoorden hoog, terwijl het verkeer per URL laag blijft. In Screaming Frog stapelen duplicate of bijna-duplicate titles en H1’s zich razendsnel op.
Een kanttekening: niet elke overlappende queryset is een probleem. Google’s John Mueller heeft herhaaldelijk gezegd dat sommige overlap van zoekwoorden tussen pagina’s normaal is. Het probleem is aanhoudende intentieconflict (intent collision), niet een paar gedeelde vertoningen.
Op sites met minder dan 100.000 URL’s kun je vaak binnen 2-4 weken in GSC crawl consolidatie zien na redirects en opschoning van canonical’s. Verplaatsing in rankings duurt meestal langer. Zes tot tien weken is een realistische termijn.
De luie oplossing is een stad- of producttoken toevoegen en het “uniek” noemen. Dat verandert vaak alleen de string, niet de intentie. Als elke pagina nog steeds dezelfde opbouw van content heeft, dezelfde FAQ’s, dezelfde ankers en geen gelokaliseerde of attribuut-specifieke waarde bevat, blijft Google ze als substituten behandelen.
Een andere fout is het beschuldigen van “duplicate content” en alles noindex’en. Dat kan index-bloat beperken, maar het lost het onderliggende architectuurprobleem niet op.
De praktische KPI-set is eenvoudig: minder concurrerende URL’s per zoekwoordcluster, meer niet-brand klikken naar de beoogde pagina en een sterkere gemiddelde positie voor de primaire URL. Als dat niet verbetert, is de template nog steeds niet genoeg gedifferentieerd.
Bewaak proactief template drift om sluipende SEO-afname te voorkomen, een …
Identificeer het verzadigingspunt om crawlbudget te besparen, incrementele rankings te …
Ruim programmatic index bloat op om crawl budget te herwinnen, …
Zo rangschik je video’s op YouTube en in Google door …
Hash-gebaseerde URL’s kunnen indexering verstoren, crawl-capaciteit verspillen en pagina’s die …
Een praktische manier om te beoordelen of gepagineerde (template) pagina’s …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free