Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →Kurzfassung: Die beste SEO-Checkliste nach dem Go-Live ist kürzer, als du erwartest. Ein Relaunch scheitert selten, weil jemand eine Meta Description vergessen hat. Er scheitert, weil Google die neuen URLs nicht crawlen, rendern, vertrauen oder mit den alten Autoritätssignalen verknüpfen kann. Prüfe zuerst Zugriff, Rendering, Redirects, Canonicals, Analytics und Sitemaps. Wenn das passt, brennt die Seite vermutlich nicht. Danach kannst du aufräumen.
Ich habe Kundensites über mindnow live gestellt, vadimkravcenko.com neu aufgebaut und baue jetzt seojuice.io mit statisch gerenderten öffentlichen Seiten plus App-Oberflächen, die nicht ranken müssen. Die Panik nach dem Go-Live lautet fast nie „wir haben ein alt-Attribut vergessen“. Sie lautet „die neue React-Route liefert nur eine leere Hülle“, „die alte URL-Map hat Lücken“ oder „Search Console meldet entdeckt, aber nicht indexiert, und niemand will zugeben, dass die Seiten dünn sind“.
Genau diesen Denkfehler müssen wir brechen. Eine SEO-Checkliste nach dem Go-Live ist ein Triage-System, kein Spreadsheet, in dem jede Zeile dasselbe Gewicht hat. Erst die Blutung stoppen – dann polieren.
Standard-Checklisten glätten das Risiko. Eine fehlende Meta Description und eine robots.txt, die alles blockiert, gehören nicht in dieselbe Kategorie. Genauso wenig wie ein langsames Hero-Bild und eine kaputte 301-Map der alten Site.
Die erste Stunde ist der Beweis (und genau den Schritt übergehen die meisten Teams). Können Crawler die Seiten erreichen? Sieht Google die gewünschte URL, den Canonical, den Inhalt und den Statuscode? Haben alte URLs, interne Links, Analytics und Zitationen überlebt? Erst danach geht es an Verbesserungen.
| Priorität | Fängt ab | Wann prüfen | Beispielfehler |
|---|---|---|---|
| Zugriff | Crawl-Sperren und noindex-Regeln | Erste 60 Minuten | Production läuft mit staging robots.txt |
| Identität | Status, Canonicals, gerenderter Inhalt | Tag 1 | Canonical zeigt auf die falsche Sprache |
| Kontinuität | Redirects, Links, Analytics, Zitationen | Tag 0–7 | Alte URLs leiten auf die Startseite um |
| Optimierung | Metadaten, Schema, Content-Qualität, Speed | Ab Woche 2 | Kategorie-Templates brauchen stärkeren Text |
Darum beginnt ein gutes technisches SEO-Audit nach dem Go-Live mit Fehlermodi, nicht mit Deko. Launches sind politisch. Ohne Ordnung wird jedes Meeting zur Show.
Nur weil „die Seite in Chrome lädt“, heißt das nicht, dass Google den Inhalt sieht. Chrome ist dein Browser. Googlebot ist ein Crawler mit Render-Steps, Crawl-Queues, blockierten Ressourcen und einem anderen Job.
Starte mit der produktiven robots.txt. Bestätige, dass die Bereiche, die ranken sollen, erlaubt sind. Prüfe dann Meta-Robots-Tags, x-robots-tag-Header, HTTP-Statuscodes und Canonicals. Live-Seiten müssen 200 liefern. Permanente Redirects 301. Entfernte Seiten 404 oder 410. Canonicals sind selbstreferenziell oder gezielt zusammengefasst.
Nutze anschließend die URL-Prüfung in der Google Search Console. Teste je eine URL pro indexierbarem Seitentyp: Startseite, Kategorie, Produkt, Artikel, Standort, programmatische Seite und jedes neue Template. Hole die Seite ab. Untersuche das gerenderte HTML. Suche nach Hauptinhalt, internen Links, Canonical, Title und strukturierten Daten.
„Das Hauptproblem bei CSR ist meist das Risiko, dass der Nutzer bei Übertragungsfehlern gar keinen Inhalt sieht. Das kann auch SEO-Auswirkungen haben.“
Diese Warnung von Martin Splitt, Developer Advocate bei Google, beschreibt das Launch-Problem auf Deutsch. Client-Side-Rendering ist nicht böse – es ist zum Go-Live fragil, weil ein fehlerhaftes Skript, ein Hydration-Bug, ein Route-Issue oder eine blockierte Ressource eine Seite in eine leere Hülle verwandeln kann.
Bei viel JavaScript folgt ein zusätzlicher JavaScript-SEO-Check. View Source reicht nicht. Entscheidend ist der gerenderte DOM.
Wenn sich URLs ändern, ist eine Redirect-Map Pflicht. Sie ist die Brücke zwischen den erarbeiteten Signalen der alten Site und der neuen Struktur.
„Wenn sich URLs ändern und die alten nicht per 301 korrekt auf die neuen gemappt werden, verliert die Site massiv SEO-Power.“
Glenn Gabe, Gründer von G-Squared Interactive, wird deutlich, weil der Fehler häufig ist. Alte URLs leiten auf die Startseite. 302er statt 301er. Redirect-Ketten durch alte CMS-Pfade, Slash-Regeln, HTTP-zu-HTTPS und Sprachordner (meist weil niemand die Map besitzt). Query-String-URLs fallen weg, ohne Backlinks oder Traffic zu prüfen.
Crawle die alte URL-Liste nach dem Go-Live (die neue Site ist der leichte Teil). Dort verstecken sich Traffic-Verluste. Crawl nicht nur die neue Site und erkläre den Sieg.
Google folgt Redirects – Ziel ist es nicht, Googles Geduld zu testen. Halte die Wege kurz.
Die meisten Checklisten setzen „Sitemap einreichen“ weit oben, als würde das Indexing erzwingen. Google Search Central sagt, eine Sitemap sei „nur ein Hinweis“ und garantiere weder Download noch Crawling oder Nutzung.
Sitemaps sind trotzdem wertvoll – sie helfen bei der Entdeckung, decken Reporting-Probleme auf und geben Search Console eine saubere Oberfläche. Besonders wichtig sind sie bei neuen Sites, wenigen externen Links, vielen Seiten oder schwer auffindbaren URLs.
Ich habe einmal gesehen, wie eine Sitemap voller Redirects das eigentliche Problem verdeckte: Die neuen kanonischen Seiten waren kaum verlinkt.
lastmod nur nutzen, wenn das CMS es korrekt setzt.Sitemap einreichen ist Logistik. Indexierung wird verdient.
Alle sagen, das Tracking sei fertig. Dann bricht die Thank-You-Page, das Consent-Banner, der Checkout-Event oder die Cross-Domain-Verweisung.
Bevor du über Rankings streitest, beweise die Messung. GA4 muss auf jedem öffentlichen Template feuern. Search Console muss für die richtige Property verifiziert sein (Protokoll, Subdomain, Domain zählen). Bing Webmaster Tools gehört auf die Liste, wenn Bing, Copilot oder Enterprise-Suche wichtig sind.
Das Team muss wissen, ob Traffic wegen Rankings, Indexierung, Messfehlern, Saisonalität oder kaputten Redirects schwankt. Ohne Baselines wird das Post-Launch-Meeting Rätselraten mit Charts.
Der HTTP Archive Web Almanac 2025 zeigt, warum Performance am Launch-Tag zählt. HTTPS und Title-Tags sind Standard: HTTPS auf ~91 % der Desktop- und Mobile-Seiten, Title auf ~98 %. Core Web Vitals sind schwächer: Desktop-Passrate 56 %, Mobile 48 %.
Damit sind Core Web Vitals einer der häufigsten Launch-Stolpersteine – kein Randthema.
INP wurde am 12. März 2024 stabiler Core Web Vital und ersetzte FID. Schwellenwerte: ≤ 200 ms gut; 200–500 ms verbesserungswürdig; > 500 ms schlecht. Laut Almanac bestehen 77 % der mobilen Seiten INP, 97 % der Desktop-Seiten. Nur 53 % der Top-1000-Sites bestehen – ein Signal für große JS-Last.
CrUX nutzt ein 28-Tage-Fenster, neue Seiten haben daher anfangs keine Felddaten. Nutze Lighthouse, PageSpeed Insights, WebPageTest, RUM und Template-Tests, bis Felddaten reifen.
Viele sehen „Entdeckt, derzeit nicht indexiert“ und reichen URLs erneut ein. Das hilft Google, eine Seite nochmal zu finden. Es macht sie nicht indexierungswürdig.
„In den meisten Fällen geht es jedoch um die Gesamtqualität der Website.“
Dieser Satz von John Mueller, Search Advocate bei Google, ist ein nützlicher Denkzettel. Die meisten Post-Launch-Checklisten behandeln Indexierung als Konfigurationsproblem. Mueller definiert sie als Qualitätsproblem.
Prüfe, ob wichtige Seiten aus crawlbarer Navigation, Hubs, Breadcrumbs oder Related-Blocks verlinkt sind. Suche Body-Links, die im Redesign verschwanden. Analysiere dünne Standort-, Kategorie-, Tag- oder programmatische Seiten, die sich vermehrt haben. Stelle sicher, dass einzigartiger Content nicht unter Tabs, Skripten oder generischem Hero-Text vergraben ist.
Hier zählt die Strategie interner Links. Interne Links sind nicht nur Crawl-Pfade. Sie sind redaktionelle Priorität. Wenn die Site nicht auf eine Seite verweist, signalisiert sie Suchmaschinen, dass die Seite nicht zentral ist.
Metadaten sind wichtig. Sie gehören nur in die richtige Ebene.
Der Web Almanac 2025 fand Canonicals auf ~68 % der Desktop- und ~67 % der Mobile-Seiten. Titles sind fast universell. HTTPS sowieso. Das sind Pflicht-Checks, aber selten der Ort für Launch-Katastrophen.
Bei einem Relaunch gelangte Staging-Schema mit Fake-Review-Markup in die Produktion. Jeder View-Source-Check hätte das gesehen.
Mach die Arbeit. Verwechsele nur nicht Metadaten-Vollständigkeit mit Launch-Sicherheit.
AI-Crawler-Policy ist jetzt eine Launch-Entscheidung (2026 ist das nicht mehr optional). Der Web Almanac 2025 fand gptbot-Regeln in robots.txt auf 4,5 % der Desktop- und 4,2 % der Mobile-Seiten – +55 % YoY. claudebot fast verdoppelt auf 3,6 % bzw. 3,4 %.
Das heißt nicht, dass GPTBot-Freigabe Sichtbarkeit garantiert. Es heißt, robots.txt steuert vermehrt AI-Crawler-Zugriff, und das Launch-Team braucht eine dokumentierte Policy.
Kaputte URLs zerstören Zitationspfade, auf die Suche und Answer-Engines setzen. Die Seiten, die beweisen, wer du bist, müssen crawlbar bleiben.
Tag 0: Zugriff und Rendering. Tag 1: Redirects, Analytics, Sitemap-Berichte. Tag 2–7: Mustererkennung.
Geduld hilft – nicht jeder Dip ist ein Desaster. Aber jeder ungemessene Dip wird zur politischen Debatte.
Nach Woche 1 nicht mehr nur nach Katastrophen suchen. Schwache Systeme verbessern.
Hier zahlt sich ein sauberes SEO-Monitoring endlich aus. Nicht jedes Ergebnis sieht man in 48 Stunden. Aber man sieht, ob das System gesünder wird.
Wenn du nur eine Stunde hast, prüfe Crawl-Zugriff, Rendering, Redirects, Canonicals, Analytics und Sitemap. Wenn das passt, brennt der Launch vermutlich nicht. Dann beginnt die eigentliche SEO-Arbeit.
Prüfe Zugriff, Rendering, Robots, Statuscode, Canonical, Analytics und Redirects in der ersten Stunde. Sitemap, Search Console und Crawls der alten URLs am ersten Tag. Indexierung, Logs, Rankings und Conversions in der ersten Woche beobachten.
Nein. Google sagt, Sitemap-Einreichung ist „nur ein Hinweis“. Reiche sie ein, weil sie Discovery und Reporting hilft, besonders bei neuen oder großen Sites. Behandle sie nicht als Index-Button.
Die teuersten Fehler sind blockiertes Crawling, kaputtes Rendering, falsche Redirects, fehlerhafte Canonicals und fehlende Messung. Metadaten lassen sich leichter fixen, wenn die Site stabil ist.
Beides, aber crawle die alte URL-Liste nach dem Go-Live. Dort tauchen verlorene Equity, kaputte Backlinks, falsche Mappings und Startseiten-Redirects auf. Das ist Kernarbeit bei Site-Migrationen.
Sofort mit Lab-Tools und RUM testen. CrUX-Felddaten brauchen ein 28-Tage-Fenster, neue Seiten benötigen also Zeit, bis stabile Felddaten vorliegen.
SEOJuice hilft Teams, die Punkte zu erkennen, die Ergebnisse verändern: kaputte interne Links, schwache Page-Priorität, fehlender Kontext und SEO-Probleme, die nach dem Go-Live unter der Oberfläche lauern. Wenn deine Site gerade live gegangen ist, starte mit den Triage-Checks oben und nutze dann SEOJuice, um die Aufräumarbeiten voranzutreiben.
no credit card required