Aktualisiert März 2026 — Mit aktuellen Daten zur content decay detection und zu Strategien für die Wiederherstellung neu geschrieben.
TL;DR: Content decay bedeutet, dass Seiten mit der Zeit organischen Traffic verlieren. Das passiert auf jeder Website. Ich aktualisiere etwa 10–15 Artikel pro Quartal. So erkennst du das früh und behebst es, bevor es deine Rankings abwürgt.

Content decay ist der langsame, stetige Rückgang von organischem Traffic und Rankings für eine Seite, die früher gut funktioniert hat. Kein plötzlicher Absturz durch eine Penalty oder einen technischen Fehler — das ist ein anderes Problem. Verfall ist leiser. Erst bekam die Seite 400 Besuche pro Monat, dann 320, dann 200 und schließlich 80. Und drei Monate lang hast du es nicht gemerkt, weil niemand hinschaut.
Das ist uns passiert. Einer unserer Blog-Posts — ein Guide zu internen Verlinkungsstrategien — war lange ein verlässlicher Performer. Er rankte in den Top 5, brachte soliden Traffic und erzeugte Anmeldungen. Dann ging es bergab. Platz 5 wurde zu Platz 8. Platz 8 wurde zu Platz 14. Als wir es endlich gefunden haben, hatte die Seite in sechs Monaten 80% ihres Peak-Traffics verloren. Drei Monate dieses Rückgangs lagen bereits hinter uns, bevor jemand im Team einen Hinweis darauf gab.
Diese Erfahrung hat in mir eine echte Monitoring-Obsession ausgelöst. Und sie kommt häufiger vor, als die meisten glauben. Jeder Content-Teil, der über organische Suche wächst, wird irgendwann irgendeine Form von decay erleben. Die Frage ist nicht, ob deine Seiten abfallen — sondern ob du es rechtzeitig erkennst, um etwas dagegen zu tun.
Content decay im SEO ist besonders gefährlich, weil es unsichtbar bleibt, bis der Schaden da ist. Dein Analytics-Dashboard zeigt dir den gesamten Website-Traffic, der womöglich steigt, weil du neuen Content veröffentlichst. Aber unter der großen Zahl bluten einzelne Seiten leise aus. Du läufst auf einem Laufband: Du veröffentlichst neue Inhalte, um das zu ersetzen, was dein alter Content gerade verliert.
HubSpot hat das entdeckt, als sie ihren Blog analysiert haben: 92% ihrer monatlichen Blog-Leads kamen von älteren Beiträgen, nicht von neu veröffentlichtem Content. Als diese älteren Seiten zu verfallen begannen, war der Business-Effekt riesig — weit größer, als ein einzelner neuer Beitrag jemals ausgleichen könnte. Diese Erkenntnis hat ihre gesamte Content-Strategie verändert.
Content verfallen nicht zufällig. Es gibt konkrete, identifizierbare Gründe, warum eine Seite an Rankings verliert. Wenn du die Ursache verstehst, weißt du auch, wie du sie behebst.
Das ist der häufigste Grund. Als du deinen Artikel veröffentlicht hast, war er die beste Antwort auf diese Suchanfrage. Achtzehn Monate später haben drei Wettbewerber längere, detailliertere und aktuellere Versionen veröffentlicht. Google merkt das.
Search ist ein relatives Spiel. Dein Content wird nicht schlechter — die Konkurrenz wird besser. Laut einer Studie von Siege Media erwarten 65,8% der Content-Marketer sinkende Traffic-Zahlen in den nächsten fünf Jahren, und zwar explizit, weil der Content-Wettbewerb weiter an Intensität gewinnt. Mehr Unternehmen investieren in Content. Die Messlatte steigt kontinuierlich.
Ich sehe das ständig bei wettbewerbsintensiven SaaS-Keywords. Ein Guide, der 2024 noch umfassend war, ist oft bis 2026 unvollständig — weil sich die Landschaft verschoben hat, neue Tools auf den Markt gekommen sind und Wettbewerber die Lücken gefüllt haben, die du offen gelassen hast.
Statistiken altern. Tools ändern Preise. Plattformen aktualisieren Features. Regulierungen verschieben sich. Wenn dein Artikel auf „2024-Daten“ verweist und es inzwischen 2026 ist, merken das Suchende (und Google) sehr wohl.
Das trifft besonders hart bei „Best of“-Listen, Pricing-Guides und allem, was auf konkrete Zahlen und Statistiken verweist. Eine Studie von Orbit Media hat gezeigt: Blogger, die bestehenden Content aktualisieren, sind 2,8-mal wahrscheinlicher, starke Ergebnisse zu berichten — genau weil Aktualität in Kategorien mit „Haltbarkeitsdatum“ wichtiger ist als anderswo.
Andy Crestodina, Mitgründer von Orbit Media, hat es gut formuliert: „Der beste Weg, mehr Traffic aus Content Marketing zu bekommen, ist nicht, mehr Content zu erstellen — sondern den Content zu aktualisieren, den du bereits hast.“ Das sagt er seit Jahren in einer oder anderer Form, und die Daten bestätigen ihn weiter.
Manchmal bleibt die Suchanfrage gleich, aber was die Leute finden wollen, ändert sich. Ein Keyword, das früher eher informierende Ergebnisse ausgelöst hat, zeigt plötzlich kommerzielle Ergebnisse. Eine Anfrage, die früher durch einen ausführlichen Guide beantwortet wurde, wird heute möglicherweise durch ein Featured Snippet oder eine AI Overview gelöst.
AI Overviews beschleunigen genau das. Forschung aus den Jahren 2024–2025 zeigt, dass AI Overviews die Click-through-Rate zu klassischen organischen Ergebnissen um 30–60% senken können, bei Suchanfragen, bei denen sie erscheinen. Dein Blog-Post rankt vielleicht noch auf #3 — aber wenn Google die Antwort direkt in der SERP liefert, klicken weniger Leute durch. Deine Position bleibt gleich. Dein Traffic nicht.
Das ist eine fiese Art von content decay, weil sie sich nicht in deinen Ranking-Daten zeigt. Du bist weiterhin auf Seite eins. Aber deine Klicks brechen ein, weil die Intention bereits bedient wird, bevor jemand dein Ergebnis erreicht.
Google veröffentlicht jedes Jahr tausende Updates. Die meisten sind klein. Einige verändern ganze Kategorien. Die Helpful-Content-Updates 2023–2024 haben dünnen, templategenerierten und KI-generierten Content auf ganzen Websites abgestraft. Das Core Update im März 2024 hat hunderte Domains mit niedriger Qualität aus dem Index entfernt.
Wenn dein Content am Rand war — dünn, aber durch Domain Authority in den Rankings; oder keyword-optimiert, aber inhaltlich flach, was den echten Mehrwert angeht — kann ein Core Update ihn über Nacht nach unten drücken. Die Seite ist nicht schrittweise „verfallen“. Aber das Ergebnis ist dasselbe: Traffic sinkt und kommt ohne Eingriff nicht zurück.
Ross Hudgens, CEO von Siege Media, spricht über diese Dynamik seit Langem: Die Content-Marketing-Teams, die langfristig gewinnen, behandeln Content wie ein Asset, das kontinuierlich gepflegt werden muss — nicht wie ein einmaliges Deliverable. Jedes Algorithmus-Update ist eine Erinnerung daran, dass das, was letztes Jahr funktioniert hat, dieses Jahr nicht zwangsläufig garantiert ist.
Auch das wird oft übersehen. Wenn du neuen Content veröffentlichst und die Website-Struktur änderst, verschiebt sich die interne Link Equity. Eine Seite, die früher von deiner Startseite und 15 weiteren Seiten verlinkt wurde, ist vielleicht jetzt nur noch von 3 Seiten verlinkt, die tief in deiner Seitenarchitektur versteckt sind. Ihre Autorität verflüchtigt sich.
Ich habe erlebt, dass Seiten um 20+ Positionen gefallen sind, rein durch Änderungen an der internen Verlinkung bei einem Redesign. Keine Content-Änderungen, kein Algorithmus-Update — nur weniger interne Links, die auf die Seite zeigen. Die Lösung ist häufig simpel, aber die Diagnose braucht den Blick auf dein Link-Graph-Setup — nicht nur auf den Content.
Frühes Erkennen ist alles. Je früher du eine abfallende Seite erwischst, desto einfacher (und günstiger) ist die Wiederherstellung. Hier sind drei Methoden — manuell bis automatisiert.
Das ist der kostenlose, manuelle Ansatz. Er funktioniert. Er kostet nur Zeit.
Öffne Google Search Console. Gehe zu „Performance“. Setze den Datumsbereich auf die letzten 3 Monate, klicke dann auf „Vergleichen“ und wähle die vorherigen 3 Monate aus. Sortiere nach dem größten Rückgang der Klicks.
Wonach du suchst:
Ich mache diesen Vergleich quartalsweise. Pro Website dauert das etwa 30 Minuten und liefert dir ein klares Bild, was gerade abnimmt. Der Nachteil: Es ist reaktiv. Wenn du es checkst, kann der Schaden bereits Monate alt sein.
Richte einen Monatsreport (oder ein Dashboard in GA4) ein, der organischen Traffic pro Seite zeigt. Achte auf Seiten, bei denen der Traffic in zwei oder mehr aufeinanderfolgenden Monaten gesunken ist. Ein Rückgang innerhalb eines Monats kann saisonal sein oder einfach Rauschen. Zwei aufeinanderfolgende Monate sind ein Signal.
Die Schwelle, die ich nutze: ein 30%iger Traffic-Rückgang im Vergleich zur Baseline der Seite ist ein Warnsignal. Unter 30% kann es normale Schwankung sein. Über 30% passiert etwas, das du untersuchen musst.
Für Seiten mit niedrigem Traffic (unter 20 Klicks pro Monat) verfolge ich content decay nicht. Die Stichprobengröße ist zu klein für belastbare Trends. Konzentriere dich auf Seiten, die tatsächlich Business-Ergebnisse treiben.
Hier habe ich aufgehört, stundenlang in Tabellen herumzuwühlen. Automatisierte Tools können jede Seite auf deiner Website überwachen, die Performance gegen historische Baselines vergleichen und abfallende Seiten markieren, bevor du es überhaupt merkst.
SEOJuice macht das kontinuierlich. Es vergleicht den aktuellen Traffic und die Ranking-Daten jeder Seite mit der historischen Baseline und triggert einen Alert, sobald eine Seite die decay-Schwelle überschreitet. Außerdem diagnostiziert es die Art des Decays — CTR-Problem, Ranking-Drop oder Traffic-Verlust — damit du weißt, welche Art Fix du anwenden solltest, noch bevor du die Seite überhaupt öffnest.
Der Vorteil von Automatisierung ist nicht nur Tempo. Es ist Konsistenz. Manuelles Prüfen passiert dann, wenn du daran denkst. Automatisiertes Monitoring passiert jeden Tag, auf jeder Seite, ohne Lücken.
Decays zu erkennen ist Schritt eins. Es zu beheben ist ein System. Das ist das fünfstufige Vorgehen, das ich für jede abfallende Seite verwende.
Nimm eine der drei Detektionsmethoden oben. Erstelle eine Liste aller Seiten mit einem relevanten Traffic-Rückgang (>30%) in den letzten 3–6 Monaten. Priorisiere nach Business Impact: Eine Seite, die Anmeldungen oder Umsatz bringt, zählt mehr als eine Seite, die nur „Show“-Traffic liefert.
Typischerweise landen bei mir pro Quartal 10–20 Seiten, die Aufmerksamkeit brauchen. Das ist machbar. Wenn deine Liste 50+ umfasst, hast du zu lange gewartet — triage nach Impact und arbeite es in Batches ab.
Schritt zwei nicht überspringen. Die Diagnose bestimmt die Lösung. Beantworte für jede abfallende Seite diese Fragen:
Meistens ist es eins von zwei Dingen: veralteter Content oder stärkere Wettbewerber. Beide sind lösbar.
Nicht jede abfallende Seite verdient ein Refresh. Manche brauchen ein Rewrite. Manche müssen umgeleitet werden. So entscheide ich:
| Signal | Aktion | Beispiel |
|---|---|---|
| Traffic sinkt 20–40%, Content ist noch relevant | Refresh | Statistiken aktualisieren, neuen Abschnitt ergänzen, Beispiele verbessern |
| Traffic sinkt 50%+, Content ist veraltet | Rewrite | Komplett neu aufsetzen mit aktuellen Informationen und besserer Struktur |
| Thema ist für dein Business nicht mehr relevant | Redirect | 301-Weiterleitung auf die nächstpassende relevante Seite |
| Konsolidieren | 3 schwache Artikel zu 1 starkem zusammenführen, die anderen per Redirect weiterleiten | |
| Keyword-Volumen ist deutlich gesunken | Neu ausrichten | Für ein verwandtes Keyword mit aktueller Nachfrage optimieren |
Die meisten abfallenden Seiten fallen in die Kategorie „Refresh“. Gute Nachricht: Ein Refresh dauert 2–4 Stunden. Ein vollständiges Rewrite braucht einen Tag oder mehr.
Für einen Refresh ist das meine Checkliste:
Für ein Rewrite starte in der Keyword-Recherche-Phase. Analysiere die SERP erneut, prüfe aktuelle Intention und erstelle die Outline von Grund auf neu. Behalte die gleiche URL — so sicherst du, was auch immer an Backlinks und Autorität die Seite bereits aufgebaut hat.
Für eine Konsolidierung wähle die stärkste URL als „Überlebende“. Fasse den besten Content aus allen Seiten in genau diese eine URL zusammen. Richte 301-Redirects von den anderen URLs ein. Besonders effektiv ist das, wenn du 3–4 Seiten hast, die alle Variationen desselben Keywords bedienen, aber keine davon wirklich gut rankt.
Nachdem du die Änderungen gemacht hast, track die Seite für 8–12 Wochen. In der ersten Phase wöchentlich prüfen, im Anschluss alle zwei Wochen. Dokumentiere bei jedem Checkpoint Position, Klicks und Impressionen.
Keine Panik, wenn in der ersten Woche nichts passiert. Google muss deine Inhalte neu crawlen und neu verarbeiten. Ich sehe meistens innerhalb von 2–3 Wochen erste Bewegung, mit vollständiger Erholung (falls sie kommt) bis Woche 6–8.
Diese Entscheidung bekomme ich am häufigsten gestellt. Leute wollen eine klare Linie. Hier ist sie.
Refresh, wenn der Kern-Content noch gut ist, aber aktualisiert werden muss. Die Struktur stimmt, der Angle passt, die Zielgruppe ist dieselbe. Du ergänzt, verbesserst und machst modern — du baust nicht neu.
Rewrite, wenn der gesamte Ansatz falsch ist. Der Content wurde für eine Keyword-Intention geschrieben, die es so nicht mehr gibt. Das Format passt nicht (du hast einen Listenpost geschrieben, aber die SERP zeigt jetzt ausführliche Guides). Die Informationen sind so veraltet, dass „Flicken“ mehr Arbeit wäre als von vorne zu starten.
Redirect, wenn das Thema für deine Website nicht mehr sinnvoll ist. Wenn du von Agentur-Services zu SaaS gewechselt bist und immer noch Blogposts zu „wie man eine SEO-Agentur auswählt“ hast, dann kommen diese Posts nicht zurück. Leite sie auf etwas Relevantes um und hole dir whatever Link Equity sie noch tragen.
Konsolidieren, wenn Keyword-Kannibalisierung das Problem ist. Wenn du drei Artikel hast zu „content decay SEO“, „was ist content decay“ und „wie man content decay behebt“, konkurrierst du effektiv mit dir selbst. Merge das zu einem eindeutigen, besten Stück. Das führt meistens zu einem schnellen Ranking-Boost, weil du Autorität konzentrierst statt sie zu verwässern.
Noch eine Nuance: prüf das Backlink-Profil, bevor du entscheidest. Eine Seite mit 40 verweisenden Domains verdient mehr Aufwand als eine mit null. Backlinks sind ein Asset. Bewahre sie durch Refreshes und Rewrites, oder übertrage sie per Redirects. Lösche niemals einfach eine Seite mit Backlinks.
Erwartungen zählen. Das habe ich über Hunderte Content-Refreshes hinweg gesehen.
Refreshes (aktualisierte Statistiken, neue Abschnitte, besserer Content): rechne damit, dass sich die Position innerhalb von 2–4 Wochen verändert. Der Traffic folgt dann typischerweise 1–2 Wochen später. Die meisten Refreshes erreichen innerhalb von 6–8 Wochen wieder 80–100% ihres Peak-Traffics.
HubSpot hat das im großen Stil getestet. Sie haben 2–3 alte Blogposts pro Woche aktualisiert und sahen bei den optimierten Beiträgen einen durchschnittlichen Anstieg von 106% bei organischen Suchansichten. Außerdem haben sie die monatlichen Leads verdoppelt, die diese Posts generiert haben. Die Zahlen sind real — diese Strategie funktioniert.
Rewrites dauern länger: 4–8 Wochen für substanzielle Positionsänderungen. Ein vollständiges Rewrite zwingt Google im Grunde, die Seite von Grund auf neu zu bewerten — deswegen dauert es länger als ein Refresh, bei dem die bestehenden Signale erhalten bleiben.
Backlinko hat einen Case dokumentiert, bei dem ein Content-Relaunch zu einem 260,7% Anstieg im organischen Traffic innerhalb von 14 Tagen führte — aber das ist ein Ausreißer. Typischer sind Ergebnisse wie bei Single Grain: Sie haben 42 Posts refreshed und sahen 96% Traffic-Wachstum, aber die volle Wirkung brauchte sechs Monate, bis sie vollständig materialisiert war.
Nicht jeder Refresh funktioniert. Ich sage es ehrlich: Etwa 70–80% unserer Refreshes erholen sich. Der Rest brauchte tiefergehende Maßnahmen.
Die Fälle, die nicht recovern, haben meistens eines dieser Probleme:
Wenn ein Refresh nach 8 Wochen nicht funktioniert, eskaliere ich zu einem Rewrite oder prüfe, ob die Seite für ein anderes Keyword neu ausgerichtet werden sollte. Zu warten und zu hoffen, dass es sich verbessert, ist keine Strategie.
Lass mich erklären, warum ich SEOJuice um decay detection erweitert habe. Der manuelle Ansatz funktioniert — ich habe ihn oben beschrieben. Aber er hat ein grundlegendes Problem: Er hängt davon ab, dass du daran denkst, zu checken.
Wenn du 500 Seiten verwaltest, ist es nicht realistisch, jede Seite jeden Monat manuell zu überprüfen. Und decay wartet nicht auf dein Quartalsreview. Eine Seite kann in 6 Wochen 30% ihres Traffics verlieren, wenn niemand darauf achtet.
So behandelt SEOJuice Content-Decay-Detection automatisch:
Das Ziel ist simpel: Keine Seite soll mehr als 30% ihres Traffics verlieren, ohne dass jemand in deinem Team davon weiß. Manuelle Prozesse können das nicht garantieren. Automatisierung kann.
Für Agenturen, die mehrere Kundensites managen, ist der ROI hier offensichtlich. Eine abfallende Seite 4 Wochen früher zu erwischen heißt, 4 Wochen Traffic, Leads und Umsatz zu erhalten. Das multipliziert man über 20 Kundensites — die Rechnung ist überzeugend.
Seit KI in die Suchlandschaft eingezogen ist, ist content decay deutlich komplexer geworden. Es geht nicht mehr nur um Google-Rankings.
LLMs wie ChatGPT, Perplexity und Claude haben Wissens-Cutoffs. Wenn dein Content veraltet ist, wird er in KI-generierten Antworten nicht zitiert. Und da AI Overviews bei immer mehr Suchanfragen auftauchen, zählt als Quelle zu nennen noch mehr denn je.
Eine Studie des SEO-Analysten Metehan Yesilyurt hat gezeigt, dass ChatGPT intern einen URL Freshness Score nutzt und dass das Aktualisieren von Veröffentlichungsdaten auf wirklich aktualisierten Inhalten die KI-Ranking-Positionen um bis zu 95 Plätze verbessern kann. Das ist kein Schreibfehler. KI-Systeme achten auf Freshness — und zwar vermutlich sogar noch stärker als klassische Suchsysteme.
Das bedeutet: Content Decay hat jetzt einen doppelten Effekt. Eine veraltete Seite verliert traditionellen organischen Traffic und verliert Sichtbarkeit in KI-Antworten. Die Seiten, die ihre Inhalte frisch halten, werden in KI-Antworten zitiert — und das erzeugt eine neue Art von Traffic, der zusätzlich zu klassischem SEO „mitläuft“ und sich verstärkt.
Inhalte aktuell zu halten ist nicht mehr optional. Es ist die Basis, um sowohl in klassischer als auch in KI-getriebener Suche mitzuhalten.
Mindestens monatlich. Quartalsweise, wenn du automatisiertes Monitoring nutzt, das dich bei signifikanten Rückgängen warnt. Die Gefahrenzone ist, 3+ Monate nicht zu prüfen — dort addieren sich kleine Rückgänge zu großen Traffic-Verlusten. Ich prüfe meine Top-Performing-Seiten persönlich monatlich und mache jedes Quartal ein komplettes Audit.
Ein 30%iger Rückgang gegenüber der Baseline ist meine Schwelle für eine Untersuchung. Unter 30% könnte es saisonale Variation, eine temporäre Schwankung in der SERP oder normales Rauschen sein. Über 30% stimmt etwas nicht und muss diagnostiziert werden. Wenn eine Seite um 50%+ fällt, behandle das als dringend.
Nur, wenn du auch substantielle Änderungen machst. Google vergleicht gecachte Versionen deiner Seite. Wenn du nur das Datum änderst, aber nichts anderes, ist das bedeutungslos — und Google hat das auch so gesagt. Wenn du jedoch den Content deutlich aktualisierst und danach auch das Datum anpasst, ist das Freshness-Signal real. Googles QDF (Query Deserves Freshness) Faktor ist gut dokumentiert und bestätigt. Nur nicht missbrauchen.
Ich mache 3–5 pro Monat, das sind 10–15 pro Quartal. Die richtige Zahl hängt von der Größe deiner Website und der Kapazität deines Teams ab. Eine 50-Seiten-Site braucht vielleicht 1–2 Refreshes pro Monat. Eine 500-Seiten-Site eher 5–10. Der Schlüssel ist Konsistenz: Kleine, regelmäßige Updates schlagen jedes Jahr-überholende Redesign jedes Mal. CoSchedule hat das so gemacht und in fünf Monaten einen 401% Anstieg im Traffic gesehen, weil sie ihren Top-Content systematisch refreshed haben.
Ja, aber mit Leitplanken. KI ist hervorragend darin, zu erkennen, was veraltet ist (veraltete Statistiken finden, fehlende Themen aufdecken, die Wettbewerber abdecken), erste Entwürfe für neue Abschnitte zu generieren und Meta Descriptions zu optimieren. Aber KI-generierter Content braucht trotzdem einen menschlichen Editor, der die Zielgruppe versteht und eigene Perspektiven, Expert Quotes und echte Anwendungsbeispiele ergänzen kann. Die besten Ergebnisse, die ich gesehen habe, entstehen, wenn man KI für Recherche und Struktur nutzt und die menschliche Expertise danach oben draufsetzt. Reine KI-Rewrites liefern oft eher generischen Content, der schlechter rankt — nicht besser.
Content decay ist unvermeidlich. Ihn deinen Traffic zerstören zu lassen, nicht.
Das System ist simpel: überwache deine Seiten, erkenne Rückgänge früh, diagnostiziere die Ursache und setze den richtigen Fix um. Ein Refresh dauert ein paar Stunden. Der Traffic, den du dadurch erhältst, wurde über Monate oder Jahre aufgebaut.
Ich refreshed 10–15 Artikel pro Quartal. Das ist eine der Aktivitäten mit dem höchsten ROI in unserem gesamten Marketing. HubSpot hat beim Refresh alter Inhalte einen 106% Anstieg organischer Views gesehen. Single Grain hat durch das Refresh von 42 Posts einen 96% Traffic-Zuwachs erzielt. Die Daten sind eindeutig: Bestehenden Content zu pflegen ist genauso wichtig wie neuen Content zu erstellen.
Wenn du das manuell machst, starte mit Google Search Console und einem quartalsweisen Review. Wenn du es automatisieren willst, überwacht SEOJuice jede Seite auf deiner Website und warnt dich sofort, wenn etwas anfängt abzufallen — inklusive Diagnose und Fix-Vorschlägen.
Wie auch immer: Hör auf, deinen alten Content zu ignorieren. Das ist dein wertvollstes Asset. Behandle ihn so.
Weiterführende Lektüre:
no credit card required