Search Engine Optimization Intermediate

URL-Fragment-Indexierung

Hash-basierte URLs können die Indexierung beeinträchtigen, den Crawl-Aufwand verschwenden und umsatztreibende Seiten verbergen, sofern der Content nicht auf echten, crawlbaren URLs verfügbar gemacht wird.

Updated Apr 04, 2026

Quick Definition

Indexierung von URL-Fragmenten ist die falsche Annahme, dass Inhalte, die in einer URL nach einem „#“ folgen, als eigene Seite ranken können. Das ist relevant, weil Google Fragmente für die Indexierung in der Regel ignoriert. Inhalte für kritische Funktionen, die Routensteuerung oder Filter, die sich dort befinden, sind daher in Suchergebnissen meist unsichtbar.

Indexierung von URL-Fragmenten ist größtenteils ein Altlastenproblem, taucht aber in SPA-Audits immer noch jeden Monat auf. Wenn sich wichtige Inhalte nur unter /page#state oder /page#!/view anzeigen lassen, behandelt Google das in der Regel als dieselbe URL wie /page – nicht als eigenes Dokument.

Die geschäftliche Auswirkung ist simpel: Versteckte URLs ranken nicht. Produktzustände, Hilfeartikel, gefilterte Kategoriesichten und App-Routen können aus der Suche verschwinden, obwohl Nutzer sie im Browser problemlos aufrufen können.

Was Google mit Fragmenten tatsächlich macht

Bei normaler Indexierung entfernen Suchmaschinen das Fragment. Google hat das alte AJAX-Crawling-Schema bereits vor Jahren eingestellt – und damit verschwand auch die alte #!-Umgehungslösung. In der Praxis ruft Googlebot die Basis-URL ab, nicht jede Hash-Variante, die darauf aufsetzt.

Das bedeutet: example.com/docs#setup ist keine zweite Seite. Es ist normalerweise einfach example.com/docs mit einem Sprung innerhalb der Seite. Wenn dein React- oder Vue-Router für eindeutige Inhalte weiterhin auf hashbasierte Zustände angewiesen ist, liegt ein Indexierungsproblem vor – kein kleines technisches Detail.

Ein ehrlicher Hinweis: Fragmente sind in Ordnung für Anker, Tabs und Sprunglinks auf einer Seite, die bereits indexierbar ist. Das Problem beginnt, wenn Teams erwarten, dass Fragmente eigenständige Suchtreffer erzeugen.

Wo das die SEO-Performance kaputtmacht

  • SPAs mit Hash-Routing: Routen wie /#/pricing oder /#!/features laufen oft in eine einzige crawlbare URL zusammen.
  • Facettierte Navigation: Filter, die nur über Fragmente geladen werden, können keine Rankings für Long-Tail-Kombinationen erzielen.
  • Dokumentations-Hubs: Artikelzustände, die hinter Fragmenten gerendert werden, werden häufig nicht einzeln indexiert.
  • Verwechslungsgefahr bei Link Equity: Backlinks auf Fragment-Varianten erzeugen selten separate Ranking-Signale für diese Zustände.

In Screaming Frog zeigt sich das üblicherweise als eine einzige HTML-URL mit vielen JavaScript-Änderungen des Zustands, aber ohne klar unterscheidbare crawlbare Pfade. In der Google Search Console siehst du Impressionen, die sich auf die Basis-URL konzentrieren, während die vermeintlichen Unteransichten keine Ausbeute bekommen. Ahrefs und Semrush melden dann weniger Ranking-URLs, als das Product-Team glaubt, dass es sie gibt.

Was stattdessen tun

  1. Verlege wichtige Zustände auf echte URLs – mithilfe von pathbasiertem Routing oder Query-Parametern.
  2. Render indexierbaren Content serverseitig oder pre-render ihn mit Frameworks wie Next.js, Nuxt oder Astro.
  3. Setze Canonicals auf die neuen URLs – nicht auf Fragment-Versionen.
  4. Aktualisiere interne Links, XML-Sitemaps und Navigation, damit Google die neuen Pfade findet.
  5. Prüfe das mit GSC URL-Inspektion, gerenderten Crawls in Screaming Frog und – falls vorhanden – mit Logfiles.

Wenn es sich um eine Migration handelt, mappe alte fragmentbasierte Zielseiten (die Nutzer sehen) nach Möglichkeit auf gleichwertige crawlbare URLs. Streng genommen kannst du kein 301 für ein Fragment setzen, weil das Fragment clientseitig verarbeitet wird und nicht in der HTTP-Anfrage mitgeschickt wird. Das ist die Einschränkung, die viele Glossare auslassen. Du brauchst JavaScript-Handling, Updates der internen Links und die Rückgewinnung externer Links in Ahrefs oder Moz – nicht nur eine saubere serverseitige Redirect-Regel.

Fazit: Fragmente sind für Positionen auf einer Seite gedacht – nicht für indexierbare Dokumente. Wenn die Seite für organischen Traffic relevant ist, gib ihr eine echte URL.

Frequently Asked Questions

Kann Google Inhalte indizieren, die hinter einem URL-Fragment liegen?
Meistens nicht als eigene Seite. Google ignoriert den Fragmentbezeichner in der Regel für die Indexierung und behandelt die Basis-URL als das Dokument. Wenn der Inhalt nur hinter #-Angaben existiert, ist mit schwacher oder nicht vorhandener Sichtbarkeit zu rechnen.
Sind Hash-URLs immer schlecht für die Suchmaschinenoptimierung (SEO)?
Nein. Sie sind in Ordnung für Sprungmarken (Jump Links), Akkordeons und Tabs auf einer Seite, die bereits indexierbares HTML enthält. Sie werden jedoch zum Problem, wenn Teams sie als Ersatz für echte URLs verwenden.
Kann ich eine 301-Weiterleitung von einer Fragment-URL (URL-Fragment) auf eine saubere URL einrichten?
Nicht direkt auf dem Server, da Fragmente nicht in HTTP-Anfragen gesendet werden. Du brauchst eine Verarbeitung auf Client-Seite, aktualisierte interne Links und idealerweise ein Outreach, um wichtige Backlinks zu korrigieren. Genau hier werden Migrationen oft chaotischer, als Teams erwarten.
Wie kann ich Probleme mit der Indexierung von URL-Fragmenten auditeren?
Beginnen Sie mit Screaming Frog im JavaScript-Rendering-Modus und vergleichen Sie die entdeckten URLs mit dem vorgesehenen Route-Inventar der Website. Prüfen Sie anschließend in der GSC-URL-Inspektion sowie in den Performance-Berichten, ob nur die Basis-URLs Impressionen erhalten. Ahrefs oder Semrush können dabei helfen zu bestätigen, ob die erwarteten Seiten in den „Ranking URLs“ fehlen.
Womit sollte das Hash-basierte Routing ersetzt werden?
Nutzen Sie URL-basiertes Routing wie „/features“ oder parametrisierte URLs, wenn diese Struktur sinnvoll ist. Kombinieren Sie das mit SSR, SSG oder einem zuverlässigen Pre-Rendering, sodass der HTML-Code beim ersten Laden bereits den wichtigsten Content enthält. Surfer SEO ist dafür nicht das richtige Tool; das ist ein Architekturproblem, kein On-Page-Optimierungsproblem.

Self-Check

Gibt es umsatztreibende Views, die nur hinter # oder #! Zuständen verfügbar sind?

Kann Googlebot eine eindeutige URL für jeden wichtigen Seitenstatus anfordern, ohne sich auf clientseitiges Routing zu verlassen?

Zeigt die Google Search Console (GSC) Impressionen und Klicks für die URLs an, von denen das Produktteam glaubt, dass sie existieren?

Haben wir In-Page-Anker mit indexierbaren Dokumenten verwechselt?

Common Mistakes

❌ Behandlung von Hash-Routen in einer Single-Page-Application (SPA) so, als wären es eigenständige, indexierbare Seiten

❌ Angenommen, eine serverseitige 301-Weiterleitung kann Fragment-URLs ohne clientseitige Logik erfassen

❌ XML-Sitemaps und interne Links, die auf Basis-URLs verweisen, verlassen – und dennoch erwarten, dass Fragmentzustände ranken

❌ Gerenderte Screenshots als Beleg für die Indexierbarkeit verwenden, statt die crawlbaren URLs in der GSC und bei Screaming Frog zu prüfen

All Keywords

Indexierung von URL-Fragmenten Hash-URL-SEO Fragmentbezeichner-SEO SEO für SEO-Seiten Hash-Routing-SEO Google ignoriert Fragmente JavaScript-SEO crawlbare URLs Indexierung in der Google Search Console JavaScript-Crawl mit Screaming Frog Server-Rendering-SEO AJAX-Crawling-Abkündigung

Ready to Implement URL-Fragment-Indexierung?

Get expert SEO insights and automated optimizations with our platform.

Get Started Free