Search Engine Optimization Intermediate

URL-fragment-indexering

Hash-gebaseerde URL’s kunnen indexering verstoren, crawl-capaciteit verspillen en pagina’s die inkomsten genereren verbergen, tenzij de content wordt weergegeven op echte, doorzoekbare URL’s.

Updated Apr 04, 2026

Quick Definition

Indexering van URL-fragmenten is het misvatting dat content na een # in een URL als een eigen pagina kan ranken. Dit is belangrijk omdat Google fragmenten voor indexering doorgaans negeert, waardoor kritieke content, routing of filters die zich daarin bevinden meestal onzichtbaar zijn in zoekresultaten.

Indexering van URL-fragmenten is vooral een legacy-probleem, maar het duikt nog steeds elke maand op in SPA-audits. Als belangrijke content alleen zichtbaar is op /page#state of /page#!/view, ziet Google dat meestal als dezelfde URL als /page, en niet als een apart document.

De impact op de business is eenvoudig. Verborgen URLs ranken niet. Productstatussen, helpartikelen, gefilterde categoriepagina’s en app-routes kunnen uit de zoekresultaten verdwijnen, zelfs wanneer gebruikers ze in de browser prima kunnen bereiken.

Wat Google in de praktijk met fragmenten doet

Bij normale indexering haalt zoekmachines het fragment weg. Google heeft het oude AJAX-crawlingschema al jaren geleden uitgezet, en daarmee verdween ook de oude #!-workaround. In de praktijk vraagt Googlebot de basis-URL op, en niet elke hash-variant die daar bovenop wordt gelegd.

Dat betekent dat example.com/docs#setup geen tweede pagina is. Het is meestal gewoon example.com/docs met een interne sprong binnen de pagina. Als je React- of Vue-router nog steeds uniek gevarieerde content baseert op hash-based states, heb je een indexatieprobleem—geen kleine technische eigenaardigheid.

Een eerlijke nuance: fragmenten zijn prima voor ankers, tabs en jump links op een pagina die al indexeerbaar is. Het probleem begint wanneer teams ervan uitgaan dat fragmenten op zichzelfstaande zoekvermeldingen (standalone search entries) creëren.

Waar dit de SEO-prestatie ondermijnt

  • SPA’s met hash-routing: routes zoals /#/pricing of /#!/features vallen vaak samen tot één crawlbare URL.
  • Facetnavigatie: filters die alleen via fragmenten worden geladen, kunnen geen rankings verdienen voor long-tail combinaties.
  • Documentatie-hubs: artikelstatussen die achter fragmenten worden gerenderd, worden vaak niet individueel geïndexeerd.
  • Verwarring over linkwaarde: backlinks naar fragmentvarianten leveren zelden aparte rangsignalen op voor die states.

In Screaming Frog zie je dit meestal als één HTML-URL met veel JavaScript-state-wijzigingen, maar zonder afzonderlijke crawlbare routes. In Google Search Console zie je impressies geconcentreerd op de basis-URL, terwijl de veronderstelde “child views” niets krijgen. Ahrefs en Semrush melden vervolgens minder ranking-URL’s dan het productteam denkt dat er bestaan.

Wat je in plaats daarvan moet doen

  1. Verplaats belangrijke states naar echte URLs met path-based routing of queryparameters.
  2. Render indexeerbare content server-side, of pre-render het met frameworks zoals Next.js, Nuxt of Astro.
  3. Zet canonicals op de nieuwe URLs, niet op fragmentversies.
  4. Werk interne links, XML-sitemaps en navigatie bij zodat Google de nieuwe paden kan ontdekken.
  5. Valideer met GSC URL-inspectie, gerenderde crawls in Screaming Frog en—als je die hebt—logbestanden.

Als dit een migratie is, kaart dan oude bestemmingen met fragmenten (zoals gebruikers die zien) waar mogelijk toe aan equivalente crawlbare URLs. Strikt genomen kun je geen 301 naar een fragment doen, omdat het fragment client-side wordt afgehandeld en niet wordt meegestuurd in de HTTP-aanvraag. Dat is de nuance die veel glossaries overslaan. Je hebt JavaScript-afhandeling, updates van interne links en het terugwinnen van externe links nodig in Ahrefs of Moz—niet simpelweg een nette server-side redirect-regel.

Kort gezegd: fragmenten zijn voor posities op een pagina, niet voor indexeerbare documenten. Als de pagina ertoe doet voor organisch verkeer, geef haar dan een echte URL.

Frequently Asked Questions

Kan Google content indexeren achter een URL-fragment?
Meestal niet als aparte pagina. Google negeert doorgaans het fragment voor indexering en behandelt de basis-URL als het document. Als de content alleen achter #states bestaat, kun je zwakke of zelfs geen zichtbaarheid verwachten.
Zijn hash-URLs altijd slecht voor SEO?
Nee. Ze zijn prima voor jump-links, accordeons en tab-onderdelen op een pagina die al indexeerbare HTML bevat. Ze vormen een probleem wanneer teams ze gebruiken als vervanging voor echte URL’s.
Kan ik een 301-redirect instellen voor een fragment-URL naar een schone URL?
Niet direct op de server, omdat fragmenten niet worden meegestuurd in HTTP-verzoeken. Je hebt afhandeling aan de clientzijde nodig, bijgewerkte interne links en idealiter outreach om belangrijke backlinks te herstellen. Dit is waar migraties ingewikkelder worden dan teams van tevoren verwachten.
Hoe kan ik problemen met indexering van URL-fragmenten auditen?
Begin met Screaming Frog in de modus voor JavaScript-rendering en vergelijk de gevonden URL’s met de beoogde route-inventaris van de site. Controleer daarna de rapporten URL-inspectie en Prestaties in GSC om te zien of alleen de basale URL’s vertoningen ontvangen. Ahrefs of Semrush kan helpen bevestigen of de verwachte pagina’s ontbreken in de rangschikkings-URL-sets.
Wat moet het hashgebaseerde routeren vervangen?
Gebruik padgebaseerde routing zoals /features of geparameteriseerde URL’s wanneer die structuur logisch is. Combineer dat met SSR, SSG of betrouwbare pre-rendering, zodat de HTML bij de eerste paginaweergave de primaire content bevat. Surfer SEO is hiervoor niet het juiste hulpmiddel; dit is een architectuurprobleem, geen probleem van on-page optimalisatie.

Self-Check

Bestaan er revenue-gedreven views die alleen achter # of #! states beschikbaar zijn?

Kan Googlebot voor elke belangrijke paginastatus een unieke URL opvragen, zonder afhankelijk te zijn van client-side routing?

Toont Google Search Console (GSC) vertoningen en klikken voor de URL’s waarvan het productteam denkt dat ze bestaan?

Hebben we in-paginaverankeringen (in-page anchors) verward met indexeerbare documenten?

Common Mistakes

❌ Hash-routes in een SPA behandelen alsof het afzonderlijke, doorzoekbare pagina’s zijn

❌ Uitgaande van een server-side 301 die fragment-URL’s kan afvangen zonder client-side logica

❌ XML-sitemaps en interne links die naar base-URL’s wijzen laten staan, terwijl je verwacht dat fragmentstatussen zullen ranken

❌ Gebruik gerenderde screenshots als bewijs van indexeerbaarheid in plaats van crawlbare URL’s te controleren in GSC en Screaming Frog

All Keywords

URL-fragmentindexering hash-URL SEO fragmentidentifier SEO SPA SEO hash-routing SEO Google negeert fragmenten JavaScript SEO Crawlbare URL’s Indexering in Google Search Console Screaming Frog JavaScript-crawl server-side rendering SEO AJAX-crawling deprecated

Ready to Implement URL-fragment-indexering?

Get expert SEO insights and automated optimizations with our platform.

Get Started Free