— Abgeglichen mit der Dokumentation der Google Search Console, getestet bei echten Website-Launches, plus Migrationsdaten aus unserem eigenen .io → .com-Umzug im Januar 2026.
TL;DR: Diese SEO-Checkliste nach dem Website-Launch ist für die Phase, in der die meisten Teams zu früh entspannen. Du bist live. Glückwunsch. Jetzt beginnt die eigentliche Arbeit. Die ersten 30 Tage nach einem Website-Launch entscheiden darüber, ob du in Googles Index sichtbar wirst oder darin untergehst. Diese Checkliste führt dich durch die konkreten Schritte — Stunde für Stunde, Woche für Woche — die ich bei jedem Launch und jeder Migration nutze. Wenn du die ersten 24 Stunden schleifen lässt, verbringst du danach Monate damit, wieder geradezubiegen, was du an einem Nachmittag hättest absichern können.
Eine Website live zu schalten, fühlt sich gut an. Für ungefähr fünf Minuten. Dann setzt die Nervosität ein — wird die Seite schon indexiert? Funktionieren die Redirects? Findet uns überhaupt irgendjemand?
Ich habe das dutzende Male gesehen. Teams verbringen Monate mit Design, Inhalten und Entwicklung. Sie zerdenken Schriftarten und Button-Farben. Dann klicken sie auf „Veröffentlichen“ — und kümmern sich nicht weiter darum.
Genau in diesem Moment fliegt dir der Kram um die Ohren.
Nur 10% aller Website-Migrationen verbessern tatsächlich die SEO-Performance. Die anderen 90% stagnieren entweder oder verlieren Traffic — manchmal katastrophal. Die durchschnittliche Erholungszeit nach einer vermurksten Migration? 523 Tage. Das sind fast anderthalb Jahre, in denen du deiner Traffic-Entwicklung dabei zusiehst, wie die Kurve nach unten geht.
Der Unterschied zwischen den 10%, die gewinnen, und den 90%, die es nicht tun? Eine Checkliste. Wirklich. Teams, die einem strukturierten Prozess nach dem Website-Launch folgen, erholen sich in Wochen. Diejenigen, die improvisieren, verbringen Quartale damit, Traffic-Einbrüche ihrem Chef zu erklären.
„Internal linking is one of the biggest things that you can do on a website to kind of guide Google and guide visitors to the pages that you think are important.“
Muellers Punkt ist direkt nach dem Website-Launch besonders relevant. Deine neue Seitenarchitektur muss Google sofort zeigen, was wichtig ist. Wenn du mit kaputten internen Links, verwaisten Seiten oder ohne Sitemap live gehst, weiß Google nicht, wo es anfangen soll — und Google wird das nicht von allein herausfinden.
Diese Punkte sind nicht verhandelbar. Mach sie, bevor du über den Launch twitterst. Bevor du deine E-Mail-Liste anschreibst. Bevor du irgendetwas anderes tust. Bei unserer Migration waren die ersten 24 Stunden ein verschwommener Mix aus Terminal-Fenstern und Tabs in der Search Console. Nicht glamourös. Aber jeder Punkt unten steht hier, weil wir entweder ein Problem früh erwischt haben — oder dabei zugesehen haben, wie jemand anderes es nicht erwischt hat.
| Priorität | Check | Warum das wichtig ist | So prüfst du es |
|---|---|---|---|
| P0 | noindex-Tags entfernen | Entwicklungsseiten blockieren Suchmaschinen — wenn du das vergisst, ist deine komplette Website unsichtbar | Quelltext ansehen → nach noindex suchen. robots.txt auf Disallow: / prüfen |
| P0 | XML-Sitemap an GSC senden | Informiert Google über alle Seiten deiner neuen Website. Ohne Sitemap dauert die Indexierung Wochen statt Tage | Google Search Console → Sitemaps → URL einreichen |
| P0 | Alle 301-Redirects prüfen | Alte URLs haben noch Backlinks und Bookmarks. Defekte Redirects = verlorene Linkkraft | Alte URL-Liste crawlen, prüfen, ob jede per 301 auf die richtige neue URL zeigt |
| P0 | Prüfen, ob robots.txt erreichbar ist | Wenn robots.txt blockiert ist, kann Google gar nichts crawlen | yourdomain.com/robots.txt aufrufen — sollte 200 zurückgeben |
| P1 | HTTPS auf allen Seiten prüfen | Mixed-Content-Warnungen schaden Vertrauen und Rankings | Einen Crawl laufen lassen — alle Seiten markieren, die Inhalte über HTTP laden |
| P1 | Canonical-Tags prüfen | Falsche Canonicals sagen Google, dass es deine neuen Seiten ignorieren soll | 10 Seiten stichprobenartig prüfen — Canonical sollte auf die aktuelle URL zeigen, nicht auf die alte Domain |
| P1 | Mobile Darstellung testen | Google nutzt Mobile-First-Indexing — reine Desktop-Seiten werden abgewertet | Googles Mobile-Friendly-Test |
| P1 | Server-Response-Codes überwachen | 500-Fehler beim Launch = Seiten fallen aus dem Index | Server-Logs in den ersten 24h auf 5xx-Antworten prüfen |
| P2 | Google Analytics / Tag Manager prüfen | Kein Tracking = keine Daten. Du brauchst ab Tag eins eine Baseline | Echtzeitbericht in GA — prüfen, ob Pageviews reinkommen |
| P2 | Indexierung für wichtige Seiten anfordern | Beschleunigt die Entdeckung deiner wichtigsten Inhalte | GSC → URL-Prüfung → Indexierung beantragen (Homepage, Top-10-Seiten) |
Das Wichtigste in Kürze
Der mit Abstand häufigste Launch-Fehler, den ich gesehen habe? noindex auf der Live-Seite stehen lassen. Klingt zu dumm, um wahr zu sein — aber ich habe Redesign-Projekte im sechsstelligen Bereich live gehen sehen, während in WordPress das Kästchen „Suchmaschinen davon abhalten, diese Website zu indexieren“ noch aktiviert war. Prüfe es zuerst. Prüfe es zweimal. Und dann lass es noch jemand anderen prüfen. Wir hätten es bei unserem .com-Umzug fast selbst ausgeliefert — gemerkt haben wir es nur, weil unser Deploy-Script automatisch auf noindex auf der Homepage prüft. Bau dir so einen Check auch ein.
Hier ist eine saubere robots.txt für eine frisch live geschaltete Website. Passe die Sitemap-URL und eventuelle Admin-Pfade an dein CMS an.
User-agent: *
Allow: /
# Block admin and staging paths
Disallow: /wp-admin/
Disallow: /staging/
Disallow: /cart/
Disallow: /checkout/
Disallow: /my-account/
# Allow CSS and JS for rendering
Allow: /wp-includes/*.js
Allow: /wp-includes/*.css
Allow: /wp-content/themes/*.js
Allow: /wp-content/themes/*.css
# Sitemap location
Sitemap: https://yourdomain.com/sitemap.xml
# AI crawler directives (new for 2026)
User-agent: GPTBot
Allow: /blog/
Allow: /resources/
User-agent: ClaudeBot
Allow: /blog/
Allow: /resources/
User-agent: PerplexityBot
Allow: /blog/
Allow: /resources/
Beachte die Direktiven für KI-Crawler am Ende. 2026 ist das nicht optional. Wenn du möchtest, dass deine Inhalte in Antworten von ChatGPT, Perplexity oder Claude zitiert werden, musst du deren Crawler explizit erlauben. Blockierst du sie, verschwindest du komplett aus der KI-Suche — und das ist ein Kanal, der gerade wächst.
Die ersten 24 Stunden sind für Notfälle da. In Woche 1 stellst du sicher, dass das Fundament trägt. Bei unserer Migration setzte an Tag 3 die echte Panik ein — nicht wegen einer Krise, sondern weil dann endlich genug Zeit vergangen war, damit Daten in der Search Console auftauchten und wir tatsächlich sehen konnten, was passiert. Die Lücke zwischen „wir sind live“ und „wir haben Daten“ ist nervenaufreibend.
| Tag | Check | Erforderliche Aktion | Tool |
|---|---|---|---|
| Tag 2 | 404-Fehler überwachen | GSC-Coverage-Report auf neue Crawl-Fehler prüfen. Monitoring für kaputte Links einrichten. | Google Search Console, SEOJuice Broken Link Checker |
| Tag 2 | Seitenladezeit prüfen | Core Web Vitals Audit durchführen. LCP unter 2.5s, INP unter 200ms, CLS unter 0.1. | PageSpeed Insights, Chrome DevTools |
| Tag 3 | Strukturierte Daten validieren | Schema-Markup auf wichtigen Seitentypen testen (Homepage, Produkt, Artikel, FAQ). | Google Rich Results Test |
| Tag 3 | Interne Linkstruktur prüfen | Crawl ausführen, um verwaiste Seiten zu finden. Jede wichtige Seite braucht mindestens 3 interne Links. | Screaming Frog, SEOJuice Internal Linking |
| Tag 4 | hreflang prüfen (falls mehrsprachig) | Prüfen, ob alle Sprachversionen korrekt aufeinander verweisen. Fehlendes hreflang = Duplicate Content. | Hreflang Tag Checker |
| Tag 5 | Meta Titles und Descriptions auditieren | Auf Duplikate, fehlende Tags oder Tags prüfen, die noch auf die alte Website/Marke verweisen. | SEOJuice Site Audit |
| Tag 5 | Baseline für Rank Tracking einrichten | Deine Top 50 Keywords tracken. Du brauchst eine Baseline, um den Effekt nach dem Launch zu messen. | GSC, SEOJuice keyword tracker |
| Tag 6-7 | Server-Logfiles prüfen | Crawl-Muster von Googlebot analysieren. Findet er deine wichtigen Seiten? Wie schnell? | Server-Access-Logs, Screaming Frog Log Analyzer |
Ich kann den Punkt mit den internen Links gar nicht genug betonen. Nach dem Launch von seojuice.com habe ich als Erstes unser eigenes Internal-Linking-Tool über jeden Blogpost laufen lassen. Wir fanden 34 verwaiste Seiten an Tag eins. Vierunddreißig Seiten, zu denen Google keinen Pfad hatte. Diese Seiten hatten auf der alten Domain Traffic — und wären auf der neuen still und leise verschwunden. An Tag 3 sah ich dann die ersten verwaisten Seiten in der Search Console mit dem Status „Gefunden – zurzeit nicht indexiert“. Das ist Googles höfliche Art zu sagen: „Ich weiß, dass diese Seite existiert, aber ich habe keinen Grund, mich dafür zu interessieren.“ Interne Links geben Google einen Grund, sich zu interessieren.
Bis jetzt sollte deine Website indexiert werden. Die Notfallphase ist vorbei. In Monat 1 geht es darum, das zu beschleunigen, was funktioniert, und das zu reparieren, was nicht funktioniert.
| Woche | Check | Erfolgsmetrik | Wenn es nicht klappt |
|---|---|---|---|
| Woche 2 | Index-Abdeckung wächst | GSC zeigt täglich mehr indexierte Seiten | Auf Crawl-Budget-Probleme, verwaiste Seiten oder blockierte Ressourcen prüfen |
| Woche 2 | Keine Ranking-Verluste bei wichtigen Begriffen | Top 20 Keywords innerhalb von 5 Positionen im Vergleich zu vor dem Launch | 301-Redirects prüfen, Canonical-Tags prüfen, Onpage-Inhalte auditieren |
| Woche 3 | Organischer Traffic stabilisiert sich | Traffic liegt bei mindestens 80% des Niveaus vor dem Launch | Auf noindex-Seiten, kaputte Redirects oder fehlende Inhalte prüfen |
| Woche 3 | Backlink-Profil intakt | Anzahl verweisender Domains entspricht dem Stand vor dem Launch | Kaputte Backlinks finden und Redirects einrichten |
| Woche 4 | Content Decay wurde nicht ausgelöst | Keine Seiten mit >20% Traffic-Rückgang | Geänderte URLs auditieren, interne Links aktualisieren, Content-Parität prüfen |
| Woche 4 | KI-Sichtbarkeit bleibt erhalten | Marke erscheint weiterhin in ChatGPT/Perplexity für wichtige Suchanfragen | Zugriff für KI-Crawler prüfen, robots.txt-Direktiven prüfen, llms.txt aktualisieren |
Die Metrik zur Traffic-Stabilisierung ist die, bei der die meisten nervös werden. Hier ist die Wahrheit: Fast jede Website-Migration hat einen temporären Traffic-Dip. Das ist normal. Google muss deinen Content unter der neuen URL-Struktur neu crawlen, neu indexieren und neu bewerten. Ein Rückgang von 10-20% in Woche 1-2, der sich bis Woche 3-4 erholt, ist völlig lehrbuchmäßig. Ein Einbruch von 50%, der sich bis Woche 4 nicht erholt, bedeutet, dass grundlegend etwas kaputt ist.
Bei unserer Migration lag der Dip bei 15%. Ich wusste das vorher — und habe in der ersten Woche trotzdem stündlich auf die Traffic-Kurve geschaut. Zu wissen, dass etwas normal ist, fühlt sich nicht normal an, wenn es deine eigenen Zahlen sind.

Die Checkliste endet nicht nach 30 Tagen. Das sind die Dinge, die du nach jedem Website-Launch dauerhaft im Blick behalten solltest.
Wöchentlich: GSC auf neue Crawl-Fehler prüfen. Core Web Vitals überwachen. Neue 404-Seiten durchgehen. Das dauert 15 Minuten. Trag es in deinen Kalender ein. Ich mache das jeden Montagmorgen vor allem anderen.
Monatlich: Vollständigen Site-Crawl durchführen, um neue verwaiste Seiten zu finden. Broken-Link-Audit. Content-Decay-Check für deine Top 50 Seiten. KI-Sichtbarkeit für wichtige Suchanfragen prüfen.
Vierteljährlich: Vollständiges technisches Audit. Schema-Markup validieren. Redirect-Ketten bereinigen (Ketten werden mit der Zeit länger, wenn du mehr Redirects hinzufügst — wir hatten bis Monat 2 Ketten mit 4 Hops, weil jemand einen Redirect auf eine Seite gelegt hatte, die bereits weitergeleitet wurde). Analyse interner Links, damit deine Seitenarchitektur straff bleibt.

Manchmal gehen Dinge trotz Checkliste kaputt. Hier ist die Triage-Priorität, wenn du auf eine Traffic-Klippe starrst.
| Symptom | Wahrscheinliche Ursache | Fix | Erholungszeit |
|---|---|---|---|
| Komplette Website deindexiert | noindex-Tag oder robots.txt blockiert alle Crawler | Blockade entfernen, Sitemap einreichen, Indexierung der Homepage anfordern | 3-7 Tage |
| 50%+ Traffic-Einbruch über Nacht | Kaputte 301-Redirects von der alten Domain | Jeden Redirect auditieren, defekte korrigieren, aktualisierte Sitemap einreichen | 2-4 Wochen |
| Bestimmte Seiten ranken nicht | Canonical zeigt auf die falsche URL | Canonical-Tags korrigieren, Re-Indexierung der betroffenen Seiten anfordern | 1-2 Wochen |
| Soft-404-Seiten vermehren sich | Template-Seiten liefern 200 ohne Inhalt zurück | Für tote Seiten korrekt 404/410 zurückgeben oder echten Inhalt hinzufügen | 1-3 Wochen |
| Rankings gefallen, aber Seiten indexiert | Problem mit Content-Parität — neue Seiten haben weniger Inhalt | Fehlenden Inhalt wiederherstellen, interne Links ergänzen, H1-Tags prüfen | 2-6 Wochen |
| Mobile Rankings brechen ein | Neues Design ist nicht responsive | Responsives Layout korrigieren, mit Google Mobile-Friendly Tool testen | 1-2 Wochen |
Die ersten beiden Zeilen machen ungefähr 80% der Notfall-Anrufe aus, die ich nach einem Launch bekomme. Es ist fast immer ein noindex-Tag oder kaputte Redirects. Keine mysteriöse Algorithmus-Strafe. Keine Google-Verschwörung. Einfach nur übersehene Checkboxen.
Ich sollte selbst befolgen, was ich predige, also hier, was passiert ist, als wir SEOJuice im Januar 2026 von der .io-Domain auf .com umgezogen haben.
Wir liefen über ein Jahr auf seojuice.io. Solider Traffic, gutes Backlink-Profil, Rankings für unsere Ziel-Keywords. Aber ich wollte die .com. Nicht aus SEO-Gründen — die .io-Endung ist für Search völlig okay — sondern wegen Vertrauen. Wenn du an Agenturen und Enterprises verkaufst, ist die .com wichtiger, als sie eigentlich sein sollte.
Das haben wir gemacht:
Vor dem Wechsel: Jede URL der .io-Seite exportiert. Eine vollständige Redirect-Map gebaut. Jeden Redirect in Staging getestet. Alle internen Links auf .com-URLs umgestellt. Google über das Change-of-Address-Tool in der Search Console informiert.
Am Tag des Wechsels: Redirects ausgerollt. Neue Sitemap eingereicht. In GSC verifiziert, dass die .com-Property Daten empfängt. Server-Logs auf Crawl-Aktivität überwacht. Ich blieb bis Mitternacht wach und sah dabei zu, wie die Crawl-Rate von Googlebot langsam hochging.
Was passiert ist: Wir sahen in Woche 1 einen Traffic-Dip von 15%. In Woche 3 waren wir wieder auf dem Niveau vor der Migration. In Woche 6 lag der Traffic 12% darüber — teilweise, weil die .com-Domain offenbar mehr Klickrate aus den SERPs gezogen hat (Menschen vertrauen .com, selbst wenn es nur unterbewusst ist).
Was fast schiefging: Wir hatten einen Schwung alter Blogposts, in deren Inhalt hartcodierte .io-URLs steckten. Die Redirects haben externen Traffic sauber abgefangen, aber intern erzeugten diese Links Redirect-Ketten (Seite A verlinkt auf eine .io-URL, die per 301 auf die .com-URL weiterleitet). Wir haben das an Tag 3 bei der Server-Log-Prüfung entdeckt — genau deshalb steht dieser Check oben in der Tabelle für Woche 1. Hätte ich die Log-Prüfung ausgelassen, hätten sich diese Ketten still angesammelt, jede einzelne mit zusätzlicher Latenz und verwässerter Link Equity.
„Websites mit starker Content-Qualität, thematischer Autorität und sauberem technischem SEO stabilisieren sich nach einer Migration normalerweise schnell. Diejenigen, die sich nicht erholen, hatten meist schon vor dem Umzug versteckte Probleme.“
Genau das haben wir erlebt. Die Migration hat die Probleme nicht verursacht — sie hat sie sichtbar gemacht. Die verwaisten Seiten, die wir fanden, waren schon vor dem Umzug verwaist. Die hartcodierten URLs waren technische Schulden, kein Migrationsproblem. Die Checkliste hat uns nur dazu gezwungen, wirklich hinzuschauen.
Jeder Punkt auf dieser Checkliste existiert, weil irgendjemand irgendwo ihn nicht geprüft und dadurch Traffic verloren hat. Das ist nicht dramatisiert. Der Redirect-Check ist drin, weil eine Ecommerce-Website mit $2M Umsatz nach einer Migration 44% ihres organischen Traffics verlor, weil jemand vergessen hatte, 3,000 Produkt-URLs zu mappen. Der noindex-Check ist drin, weil ein SaaS-Unternehmen mit aktivierter Option „Suchmaschinen abhalten“ live ging und es drei Wochen lang nicht bemerkte.
SEO nach dem Website-Launch ist nicht glamourös. Es ist eine Checkliste. Es ist Kästchen abhaken. Es ist, am Launch-Tag um 23 Uhr in Server-Logs zu starren, weil sich etwas falsch anfühlt. An unserem Launch-Tag wechselte ich zwischen einem Terminal, das Access-Logs tailte, und einem schreienden Zweijährigen, der sich weigerte, ins Bett zu gehen. Beide Situationen verlangten dasselbe: Geduld, einen systematischen Ansatz und die Akzeptanz, dass die nächsten 48 Stunden einfach so sein würden.
Aber genau das ist der Unterschied zwischen einem Launch, der sich zu Wachstum aufschaukelt, und einem Launch, von dem du dich anderthalb Jahre lang erholst.
Mach die Checkliste.
Bei einer komplett neuen Domain solltest du nach dem Einreichen deiner Sitemap in der Google Search Console mit 1-2 Wochen für die erste Indexierung rechnen. Bei einer Domain-Migration (gleicher Inhalt, neue URL) indexiert Google die meisten Seiten typischerweise innerhalb von 1-4 Wochen neu. Wenn du für deine Homepage und wichtigsten Seiten über das URL-Prüfungstool die Indexierung anforderst, geht es schneller. Websites mit starkem Backlink-Profil und regelmäßig aktualisierten Inhalten werden schneller gecrawlt.
Ja. Ein Traffic-Dip von 10-20% in den ersten 1-2 Wochen ist völlig normal, selbst bei sauber umgesetzten Launches. Google muss deinen Inhalt neu crawlen und neu bewerten. Die entscheidende Metrik ist die Erholung: Du solltest innerhalb von 3-4 Wochen wieder auf dem Niveau vor dem Launch sein. Wenn der Traffic nach 4 Wochen immer noch 30%+ darunter liegt, stimmt etwas nicht — fang mit der Notfall-Tabelle oben an.
Nein. Deine alten Backlinks geben über deine 301-Redirects weiterhin Linkkraft weiter. Wenn du sie disavowst, wirfst du verdiente Link Equity weg. Disavowe nur Links, die schon vor der Migration tatsächlich spammy waren. Den Rest regelt der Redirect.
Wenn du eine hast: ja. Aktualisiere sie mit deiner neuen URL-Struktur und den wichtigsten Inhaltsseiten. Auch wenn llms.txt noch kein offizieller Standard ist, beziehen sich Claude und Perplexity darauf. Das ist eine Aufgabe von fünf Minuten, die sicherstellt, dass KI-Suchmaschinen eine klare Karte deiner Inhalte haben. Stell es dir wie eine Sitemap für KI vor — wenig Aufwand, potenziell hoher Ertrag.
Wenn du die alte Domain noch kontrollierst, richte sofort Redirects ein. Wenn du keinen Zugriff mehr auf die alte Domain hast, konzentriere dich darauf, neue Backlinks auf deine wichtigsten Seiten aufzubauen, und reiche eine umfassende Sitemap ein. Eine Erholung ohne Redirects dauert deutlich länger — rechne eher mit 3-6 Monaten statt 3-6 Wochen.
Du kannst alles auf dieser Checkliste manuell mit Google Search Console und einer Tabelle erledigen. Aber wenn du das Monitoring lieber automatisieren willst, würde ich Folgendes empfehlen:
SEOJuice Site Audit — Direkt nach dem Launch ein vollständiges Audit laufen lassen. Erkennt noindex-Tags, kaputte Links, fehlendes Schema und 200+ weitere Probleme automatisch.
Broken Link Checker — Kritisch, um Redirect-Fehler zu finden. Lass ihn an Tag 1 und noch einmal an Tag 7 laufen.
SEO Hygiene Checklist — Unser kompletter Leitfaden für laufende SEO-Wartung. Passt perfekt zu dieser Checkliste für SEO nach dem Website-Launch in der Phase „laufendes Monitoring“.
Die Phase nach dem Launch ist der Punkt, an dem der meiste SEO-Wert gewonnen oder verloren wird. Die Teams, die sie als strukturierten Prozess behandeln — nicht als Feier — sind am Ende die, die vorne liegen.
no credit card required