Hash-gebaseerde URL’s kunnen indexering verstoren, crawl-capaciteit verspillen en pagina’s die inkomsten genereren verbergen, tenzij de content wordt weergegeven op echte, doorzoekbare URL’s.
Indexering van URL-fragmenten is het misvatting dat content na een # in een URL als een eigen pagina kan ranken. Dit is belangrijk omdat Google fragmenten voor indexering doorgaans negeert, waardoor kritieke content, routing of filters die zich daarin bevinden meestal onzichtbaar zijn in zoekresultaten.
Indexering van URL-fragmenten is vooral een legacy-probleem, maar het duikt nog steeds elke maand op in SPA-audits. Als belangrijke content alleen zichtbaar is op /page#state of /page#!/view, ziet Google dat meestal als dezelfde URL als /page, en niet als een apart document.
De impact op de business is eenvoudig. Verborgen URLs ranken niet. Productstatussen, helpartikelen, gefilterde categoriepagina’s en app-routes kunnen uit de zoekresultaten verdwijnen, zelfs wanneer gebruikers ze in de browser prima kunnen bereiken.
Bij normale indexering haalt zoekmachines het fragment weg. Google heeft het oude AJAX-crawlingschema al jaren geleden uitgezet, en daarmee verdween ook de oude #!-workaround. In de praktijk vraagt Googlebot de basis-URL op, en niet elke hash-variant die daar bovenop wordt gelegd.
Dat betekent dat example.com/docs#setup geen tweede pagina is. Het is meestal gewoon example.com/docs met een interne sprong binnen de pagina. Als je React- of Vue-router nog steeds uniek gevarieerde content baseert op hash-based states, heb je een indexatieprobleem—geen kleine technische eigenaardigheid.
Een eerlijke nuance: fragmenten zijn prima voor ankers, tabs en jump links op een pagina die al indexeerbaar is. Het probleem begint wanneer teams ervan uitgaan dat fragmenten op zichzelfstaande zoekvermeldingen (standalone search entries) creëren.
In Screaming Frog zie je dit meestal als één HTML-URL met veel JavaScript-state-wijzigingen, maar zonder afzonderlijke crawlbare routes. In Google Search Console zie je impressies geconcentreerd op de basis-URL, terwijl de veronderstelde “child views” niets krijgen. Ahrefs en Semrush melden vervolgens minder ranking-URL’s dan het productteam denkt dat er bestaan.
Als dit een migratie is, kaart dan oude bestemmingen met fragmenten (zoals gebruikers die zien) waar mogelijk toe aan equivalente crawlbare URLs. Strikt genomen kun je geen 301 naar een fragment doen, omdat het fragment client-side wordt afgehandeld en niet wordt meegestuurd in de HTTP-aanvraag. Dat is de nuance die veel glossaries overslaan. Je hebt JavaScript-afhandeling, updates van interne links en het terugwinnen van externe links nodig in Ahrefs of Moz—niet simpelweg een nette server-side redirect-regel.
Kort gezegd: fragmenten zijn voor posities op een pagina, niet voor indexeerbare documenten. Als de pagina ertoe doet voor organisch verkeer, geef haar dan een echte URL.
Hoe ongecontroleerde indexering via templates, facetten en parameters crawlcapaciteit verspilt …
Wanneer geschaalde paginatemplates het aantal pagina’s dat echt onderscheidend is …
Een cannibalisatie-metriek op templateniveau om dubbele zoekintentie te vinden binnen …
Bewaak proactief template drift om sluipende SEO-afname te voorkomen, een …
Een technische SEO-discipline gericht op het terugdringen van URL-sprawl die …
Elimineer template-kannibalisatie om de link equity te consolideren, tot 30% …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free