Wenn URLs mit geringem Wert die Crawling-Warteschlange von Google überfüllen, werden wichtige Seiten langsamer entdeckt und aktualisiert, als es eigentlich nötig wäre.
Index-Budget-Verdünnung tritt auf, wenn Google Crawl- und Indexierungsaufwand für URLs aufwendet, die nie eine Rolle spielen sollten – z. B. Facetten, Parameter, Duplikate, dünne Varianten – statt für Ihre Money Pages. Besonders relevant ist das bei großen Websites, weil die verschwendete Crawl-Aktivität die Auffindbarkeit, das erneute Crawling und die Indexierung der Seiten verzögert, die Rankings und Umsatz antreiben.
Index-Budget-Dilution bedeutet, dass zu viele minderwertige URLs um die Aufmerksamkeit von Googlebot konkurrieren. Auf Websites mit 100.000+ URLs führt das in der Regel zu langsamerer Indexierung, veralteten Neu-Crawlings auf wichtigen Templates und schwächerer organischer Performance – genau dort, wo es wirklich zählt.
Das praktische Problem ist simpel: Googlebot verschwendet Anfragen für gefilterte Kategorieseiten, Tracking-Parameter, interne Suchseiten, doppelte Varianten und soft-leere Seiten, statt für die kommerziellen oder redaktionellen URLs, die du schnell indexiert haben möchtest. Screaming Frog zeigt dir die Größenordnung. Serverlogs belegen die Kosten.
Das ist nicht nur ein Stichwort zum Crawl-Budget. Es wird zu einem Indexierungsproblem, wenn Google Junk schneller findet, als es deine sinnvollen Seiten verarbeiten kann. In der Google Search Console siehst du das typischerweise als aufgeblähtes Muster von Entdeckt – derzeit nicht indexiert oder Gekrabbelt – derzeit nicht indexiert, kombiniert mit einer Sitemap-Abdeckung, die schlechter aussieht, als sie sollte.
Im Enterprise-Ecommerce, bei Marktplätzen und Publisher-Archiven kann die Behebung der Dilution die Zeit bis zur Indexierung messbar verkürzen. Ahrefs und Semrush helfen dir dabei, Seiten zu identifizieren, die eigentlich ranken sollten, aber nicht im Google-Index fehlen. GSC und Logdateien zeigen dir, ob der Crawl-Bedarf upstream verschwendet wird.
Mit Moz und Surfer SEO lässt sich das nicht ausreichend sauber diagnostizieren. Zuerst ist das ein technisches SEO-Thema – nicht ein Problem der Content-Bewertung.
Starte mit drei Datenquellen: GSC-Crawl-Statistiken, rohe Serverlogs und ein vollständiges Crawl mit Screaming Frog oder Sitebulb. Wenn 20%+ der Googlebot-Treffer auf parameterisierte, doppelte, weitergeleitete oder nicht-indexierbare URLs gehen, hast du sehr wahrscheinlich ein Dilution-Problem, das sich lohnt zu beheben. Auf sehr großen Websites sind 30%+ häufig.
Vergleiche dann:
Googles John Mueller hat wiederholt gesagt, dass das Crawl-Budget vor allem bei größeren Websites eine Rolle spielt – und diese Einordnung ist nach wie vor richtig. Die Einschränkung: Teams machen oft das Crawl-Budget verantwortlich, obwohl das eigentliche Problem die Qualität ist. Wenn Seiten dünn, dupliziert oder kommerziell austauschbar sind, wird bessere Crawl-Effizienz Google nicht dazu zwingen, sie zu indexieren.
Ein Hinweis. Nutze robots.txt nicht als bequeme Alternative zum Bereinigen. Wenn blockierte URLs weiterhin Links anziehen oder intern stark referenziert werden, kann Google sie im Spiel behalten – als entdeckte URLs, ohne deine Canonical- oder noindex-Direktiven zu sehen. An dieser Stelle bricht das gängige Vorgehen.
Das beste KPI-Set ist langweilig, aber nützlich: Crawl-Waste-%, Verhältnis von Indexiert zu Übermittelt, mediane Tage bis zur Indexierung für neue URLs und Googlebot-Treffer pro wertvollem Template. Wenn sich diese Werte in die richtige Richtung bewegen, geht die Dilution zurück. Wenn nicht, behandelst du vermutlich nur Symptome.
Hash-basierte URLs können die Indexierung beeinträchtigen, den Crawl-Aufwand verschwenden und …
Eine kennzahlenbasierte Kannibalisierung auf Template-Ebene, um doppelte Suchintentionen über facettierte …
Eine praktische Methode, um zu beurteilen, ob vorlagenbasierte Seiten genügend …
Wie kleine Template-Änderungen standortweite SEO-Rückschritte verursachen – und wie du …
Überwachen und kontrollieren Sie Template-Drift proaktiv, um schleichenden SEO-Verfall zu …
So verbesserst du die Auffindbarkeit von Bildern für Google Lens, …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free