Hash-basierte URLs können die Indexierung beeinträchtigen, den Crawl-Aufwand verschwenden und umsatztreibende Seiten verbergen, sofern der Content nicht auf echten, crawlbaren URLs verfügbar gemacht wird.
Indexierung von URL-Fragmenten ist die falsche Annahme, dass Inhalte, die in einer URL nach einem „#“ folgen, als eigene Seite ranken können. Das ist relevant, weil Google Fragmente für die Indexierung in der Regel ignoriert. Inhalte für kritische Funktionen, die Routensteuerung oder Filter, die sich dort befinden, sind daher in Suchergebnissen meist unsichtbar.
Indexierung von URL-Fragmenten ist größtenteils ein Altlastenproblem, taucht aber in SPA-Audits immer noch jeden Monat auf. Wenn sich wichtige Inhalte nur unter /page#state oder /page#!/view anzeigen lassen, behandelt Google das in der Regel als dieselbe URL wie /page – nicht als eigenes Dokument.
Die geschäftliche Auswirkung ist simpel: Versteckte URLs ranken nicht. Produktzustände, Hilfeartikel, gefilterte Kategoriesichten und App-Routen können aus der Suche verschwinden, obwohl Nutzer sie im Browser problemlos aufrufen können.
Bei normaler Indexierung entfernen Suchmaschinen das Fragment. Google hat das alte AJAX-Crawling-Schema bereits vor Jahren eingestellt – und damit verschwand auch die alte #!-Umgehungslösung. In der Praxis ruft Googlebot die Basis-URL ab, nicht jede Hash-Variante, die darauf aufsetzt.
Das bedeutet: example.com/docs#setup ist keine zweite Seite. Es ist normalerweise einfach example.com/docs mit einem Sprung innerhalb der Seite. Wenn dein React- oder Vue-Router für eindeutige Inhalte weiterhin auf hashbasierte Zustände angewiesen ist, liegt ein Indexierungsproblem vor – kein kleines technisches Detail.
Ein ehrlicher Hinweis: Fragmente sind in Ordnung für Anker, Tabs und Sprunglinks auf einer Seite, die bereits indexierbar ist. Das Problem beginnt, wenn Teams erwarten, dass Fragmente eigenständige Suchtreffer erzeugen.
In Screaming Frog zeigt sich das üblicherweise als eine einzige HTML-URL mit vielen JavaScript-Änderungen des Zustands, aber ohne klar unterscheidbare crawlbare Pfade. In der Google Search Console siehst du Impressionen, die sich auf die Basis-URL konzentrieren, während die vermeintlichen Unteransichten keine Ausbeute bekommen. Ahrefs und Semrush melden dann weniger Ranking-URLs, als das Product-Team glaubt, dass es sie gibt.
Wenn es sich um eine Migration handelt, mappe alte fragmentbasierte Zielseiten (die Nutzer sehen) nach Möglichkeit auf gleichwertige crawlbare URLs. Streng genommen kannst du kein 301 für ein Fragment setzen, weil das Fragment clientseitig verarbeitet wird und nicht in der HTTP-Anfrage mitgeschickt wird. Das ist die Einschränkung, die viele Glossare auslassen. Du brauchst JavaScript-Handling, Updates der internen Links und die Rückgewinnung externer Links in Ahrefs oder Moz – nicht nur eine saubere serverseitige Redirect-Regel.
Fazit: Fragmente sind für Positionen auf einer Seite gedacht – nicht für indexierbare Dokumente. Wenn die Seite für organischen Traffic relevant ist, gib ihr eine echte URL.
So verbesserst du die Auffindbarkeit von Bildern für Google Lens, …
Wenn Vorlagen über mehrere Seitengruppen hinweg dasselbe Optimierungsmuster wiederholen, überlappen …
PAA liegt zwischen Featured Snippets und der Entdeckung über Long-Tails: …
Eine kennzahlenbasierte Kannibalisierung auf Template-Ebene, um doppelte Suchintentionen über facettierte …
Eine technische Methode zur Erkennung von Duplikaten, bei der Vorlagen …
Reduzieren Sie Template-Sättigung, holen Sie vergeudetes Crawl-Budget zurück und steigern …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free