Kies één indexeerbare URL per duplicatencluster en stem vervolgens canonicals, interne links, sitemaps en redirects af, zodat Google niet langer hoeft te gokken.
Duplicate-collectiekanonicalisatie is het proces waarbij je aan Google aangeeft welke URL moet gelden als representatieve URL voor een groep duplicate of nagenoeg duplicate pagina’s. Dit is belangrijk omdat zwakke canonical-signalen links opsplitsen, crawlcapaciteit verspillen en ervoor zorgen dat de verkeerde URL hoger in de rankings terechtkomt.
Canonicalisering van duplicate-clusters betekent het kiezen van één voorkeurs-URL voor een set met dubbele of bijna-dubbele pagina’s en die keuze consequent doorvoeren op de hele site. Goed gedaan, consolideert het rankingseinen en vermindert het indexruis. Slecht gedaan, creëert het gemengde signalen die Google negeert.
Echte clusters zijn zelden exacte kopieën. Meestal gaat het om parameter-URL’s, gefacetteerde combinaties van categorieën, varianten met HTTP/HTTPS, duplicaten met of zonder afsluitende slash, printerpagina’s, sorteervarianten en versies met campagne-tags. Op grote e-commerce-sites kan één categorie 50 tot 5.000 varianten met lage waarde genereren, zonder dat iemand het merkt.
Google clustert deze pagina’s sowieso algoritmisch. Jouw taak is om de voorkeurs-URL duidelijk te maken. Gebruik rel="canonical", consistente interne links, XML-sitemapopname en, wanneer passend, 301-redirects. Als die signalen niet met elkaar overeenkomen, kiest Google zijn eigen canonical. Dat is precies het onderdeel waar teams vaak aan voorbijgaan.
Alleen de canonical-tag is niet genoeg. Screaming Frog laat je de gedeclareerde canonicals zien, maar Google Search Console laat zien of Google ze heeft geaccepteerd onder Duplicate, Google chose different canonical than user. In dat rapport zit de waarheid.
Begin met een Screaming Frog-crawl en segmenteer canonicals, parameters en duplicate titels of hashes. Vergelijk daarna met de indexeringsrapporten in GSC en serverlogs. Op sites met meer dan 100.000 URL’s wegen logbestanden zwaarder dan crawler-theorie, omdat ze laten zien waar Googlebot daadwerkelijk requests verspilt.
Voor prioritering: richt je op clusters met één van drie kenmerken: 50+ duplicate URL’s, 25+ verwijzende domeinen die over varianten zijn verdeeld, of indexeerbare duplicaten die in GSC indrukken (impressions) ontvangen. Dat zijn de clusters met meetbare winst.
Canonicalisering is een hint, geen opdracht. Google zegt dit al jaren, en Google’s John Mueller herhaalde het in 2025. Als pagina’s inhoudelijk wezenlijk verschillen in content, intentie of interne linkprominentie, kan Google je canonical negeren. Dat zie je vaak bij faceted pagina’s die per ongeluk verschillende zoekopdrachten afdekken.
Bovendien repareert canonicalisering niet op zichzelf dunne content, slechte architectuur of crawl-traps. Als je gefacetteerde navigatie 2 miljoen URL’s genereert en ze allemaal crawlbaar blijven, is het toevoegen van canonicals slechts deels opschonen. Soms is het juiste antwoord noindex, parameterafhandeling of het volledig blokkeren van crawl-paden.
Gebruik Surfer SEO voor content overlap-checks indien nodig, maar baseer de echte diagnose op GSC, Screaming Frog, Ahrefs en loganalyse. Dit is geen huishoudelijk werk. Op grote sites is het indexcontrole.
Vang gefragmenteerde zoekintentie af en win tot 40% verloren organische …
Een praktische manier om na te denken over topical authority: …
Een breder SEO-model, ontwikkeld voor gefragmenteerde ontdekking via zoekmachines, marktplaatsen, …
Een praktisch SEO-proces om naamregels (bylines), schema en profielen buiten …
Bundel verspreide varianten om linkwaarde terug te winnen, crawl-overhead te …
Een praktische manier om je autoriteit te vergelijken met de …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free