SEO-Checkliste nach dem Website-Launch

Lida Stepul
Lida Stepul
· 14 min read

— Abgeglichen mit der Dokumentation der Google Search Console, getestet bei echten Website-Launches, plus Migrationsdaten aus unserem eigenen .io → .com-Umzug im Januar 2026.

TL;DR: Diese SEO-Checkliste nach dem Website-Launch ist für die Phase, in der die meisten Teams zu früh entspannen. Du bist live. Glückwunsch. Jetzt beginnt die eigentliche Arbeit. Die ersten 30 Tage nach einem Website-Launch entscheiden darüber, ob du in Googles Index sichtbar wirst oder darin untergehst. Diese Checkliste führt dich durch die konkreten Schritte — Stunde für Stunde, Woche für Woche — die ich bei jedem Launch und jeder Migration nutze. Wenn du die ersten 24 Stunden schleifen lässt, verbringst du danach Monate damit, wieder geradezubiegen, was du an einem Nachmittag hättest absichern können.

Warum SEO nach dem Launch wichtiger ist als vor dem Launch

Eine Website live zu schalten, fühlt sich gut an. Für ungefähr fünf Minuten. Dann setzt die Nervosität ein — wird die Seite schon indexiert? Funktionieren die Redirects? Findet uns überhaupt irgendjemand?

Ich habe das dutzende Male gesehen. Teams verbringen Monate mit Design, Inhalten und Entwicklung. Sie zerdenken Schriftarten und Button-Farben. Dann klicken sie auf „Veröffentlichen“ — und kümmern sich nicht weiter darum.

Genau in diesem Moment fliegt dir der Kram um die Ohren.

Nur 10% aller Website-Migrationen verbessern tatsächlich die SEO-Performance. Die anderen 90% stagnieren entweder oder verlieren Traffic — manchmal katastrophal. Die durchschnittliche Erholungszeit nach einer vermurksten Migration? 523 Tage. Das sind fast anderthalb Jahre, in denen du deiner Traffic-Entwicklung dabei zusiehst, wie die Kurve nach unten geht.

Der Unterschied zwischen den 10%, die gewinnen, und den 90%, die es nicht tun? Eine Checkliste. Wirklich. Teams, die einem strukturierten Prozess nach dem Website-Launch folgen, erholen sich in Wochen. Diejenigen, die improvisieren, verbringen Quartale damit, Traffic-Einbrüche ihrem Chef zu erklären.

„Internal linking is one of the biggest things that you can do on a website to kind of guide Google and guide visitors to the pages that you think are important.“

Muellers Punkt ist direkt nach dem Website-Launch besonders relevant. Deine neue Seitenarchitektur muss Google sofort zeigen, was wichtig ist. Wenn du mit kaputten internen Links, verwaisten Seiten oder ohne Sitemap live gehst, weiß Google nicht, wo es anfangen soll — und Google wird das nicht von allein herausfinden.

The First 24 Hours: Critical Checks

Diese Punkte sind nicht verhandelbar. Mach sie, bevor du über den Launch twitterst. Bevor du deine E-Mail-Liste anschreibst. Bevor du irgendetwas anderes tust. Bei unserer Migration waren die ersten 24 Stunden ein verschwommener Mix aus Terminal-Fenstern und Tabs in der Search Console. Nicht glamourös. Aber jeder Punkt unten steht hier, weil wir entweder ein Problem früh erwischt haben — oder dabei zugesehen haben, wie jemand anderes es nicht erwischt hat.

PrioritätCheckWarum das wichtig istSo prüfst du es
P0noindex-Tags entfernenEntwicklungsseiten blockieren Suchmaschinen — wenn du das vergisst, ist deine komplette Website unsichtbarQuelltext ansehen → nach noindex suchen. robots.txt auf Disallow: / prüfen
P0XML-Sitemap an GSC sendenInformiert Google über alle Seiten deiner neuen Website. Ohne Sitemap dauert die Indexierung Wochen statt TageGoogle Search Console → Sitemaps → URL einreichen
P0Alle 301-Redirects prüfenAlte URLs haben noch Backlinks und Bookmarks. Defekte Redirects = verlorene LinkkraftAlte URL-Liste crawlen, prüfen, ob jede per 301 auf die richtige neue URL zeigt
P0Prüfen, ob robots.txt erreichbar istWenn robots.txt blockiert ist, kann Google gar nichts crawlenyourdomain.com/robots.txt aufrufen — sollte 200 zurückgeben
P1HTTPS auf allen Seiten prüfenMixed-Content-Warnungen schaden Vertrauen und RankingsEinen Crawl laufen lassen — alle Seiten markieren, die Inhalte über HTTP laden
P1Canonical-Tags prüfenFalsche Canonicals sagen Google, dass es deine neuen Seiten ignorieren soll10 Seiten stichprobenartig prüfen — Canonical sollte auf die aktuelle URL zeigen, nicht auf die alte Domain
P1Mobile Darstellung testenGoogle nutzt Mobile-First-Indexing — reine Desktop-Seiten werden abgewertetGoogles Mobile-Friendly-Test
P1Server-Response-Codes überwachen500-Fehler beim Launch = Seiten fallen aus dem IndexServer-Logs in den ersten 24h auf 5xx-Antworten prüfen
P2Google Analytics / Tag Manager prüfenKein Tracking = keine Daten. Du brauchst ab Tag eins eine BaselineEchtzeitbericht in GA — prüfen, ob Pageviews reinkommen
P2Indexierung für wichtige Seiten anfordernBeschleunigt die Entdeckung deiner wichtigsten InhalteGSC → URL-Prüfung → Indexierung beantragen (Homepage, Top-10-Seiten)

Das Wichtigste in Kürze

Der mit Abstand häufigste Launch-Fehler, den ich gesehen habe? noindex auf der Live-Seite stehen lassen. Klingt zu dumm, um wahr zu sein — aber ich habe Redesign-Projekte im sechsstelligen Bereich live gehen sehen, während in WordPress das Kästchen „Suchmaschinen davon abhalten, diese Website zu indexieren“ noch aktiviert war. Prüfe es zuerst. Prüfe es zweimal. Und dann lass es noch jemand anderen prüfen. Wir hätten es bei unserem .com-Umzug fast selbst ausgeliefert — gemerkt haben wir es nur, weil unser Deploy-Script automatisch auf noindex auf der Homepage prüft. Bau dir so einen Check auch ein.

SEO nach dem Website-Launch: Deine robots.txt sollte so aussehen

Hier ist eine saubere robots.txt für eine frisch live geschaltete Website. Passe die Sitemap-URL und eventuelle Admin-Pfade an dein CMS an.

User-agent: *
Allow: /

# Block admin and staging paths
Disallow: /wp-admin/
Disallow: /staging/
Disallow: /cart/
Disallow: /checkout/
Disallow: /my-account/

# Allow CSS and JS for rendering
Allow: /wp-includes/*.js
Allow: /wp-includes/*.css
Allow: /wp-content/themes/*.js
Allow: /wp-content/themes/*.css

# Sitemap location
Sitemap: https://yourdomain.com/sitemap.xml

# AI crawler directives (new for 2026)
User-agent: GPTBot
Allow: /blog/
Allow: /resources/

User-agent: ClaudeBot
Allow: /blog/
Allow: /resources/

User-agent: PerplexityBot
Allow: /blog/
Allow: /resources/

Beachte die Direktiven für KI-Crawler am Ende. 2026 ist das nicht optional. Wenn du möchtest, dass deine Inhalte in Antworten von ChatGPT, Perplexity oder Claude zitiert werden, musst du deren Crawler explizit erlauben. Blockierst du sie, verschwindest du komplett aus der KI-Suche — und das ist ein Kanal, der gerade wächst.

Week 1: Foundation Checks

Die ersten 24 Stunden sind für Notfälle da. In Woche 1 stellst du sicher, dass das Fundament trägt. Bei unserer Migration setzte an Tag 3 die echte Panik ein — nicht wegen einer Krise, sondern weil dann endlich genug Zeit vergangen war, damit Daten in der Search Console auftauchten und wir tatsächlich sehen konnten, was passiert. Die Lücke zwischen „wir sind live“ und „wir haben Daten“ ist nervenaufreibend.

TagCheckErforderliche AktionTool
Tag 2404-Fehler überwachenGSC-Coverage-Report auf neue Crawl-Fehler prüfen. Monitoring für kaputte Links einrichten.Google Search Console, SEOJuice Broken Link Checker
Tag 2Seitenladezeit prüfenCore Web Vitals Audit durchführen. LCP unter 2.5s, INP unter 200ms, CLS unter 0.1.PageSpeed Insights, Chrome DevTools
Tag 3Strukturierte Daten validierenSchema-Markup auf wichtigen Seitentypen testen (Homepage, Produkt, Artikel, FAQ).Google Rich Results Test
Tag 3Interne Linkstruktur prüfenCrawl ausführen, um verwaiste Seiten zu finden. Jede wichtige Seite braucht mindestens 3 interne Links.Screaming Frog, SEOJuice Internal Linking
Tag 4hreflang prüfen (falls mehrsprachig)Prüfen, ob alle Sprachversionen korrekt aufeinander verweisen. Fehlendes hreflang = Duplicate Content.Hreflang Tag Checker
Tag 5Meta Titles und Descriptions auditierenAuf Duplikate, fehlende Tags oder Tags prüfen, die noch auf die alte Website/Marke verweisen.SEOJuice Site Audit
Tag 5Baseline für Rank Tracking einrichtenDeine Top 50 Keywords tracken. Du brauchst eine Baseline, um den Effekt nach dem Launch zu messen.GSC, SEOJuice keyword tracker
Tag 6-7Server-Logfiles prüfenCrawl-Muster von Googlebot analysieren. Findet er deine wichtigen Seiten? Wie schnell?Server-Access-Logs, Screaming Frog Log Analyzer

Ich kann den Punkt mit den internen Links gar nicht genug betonen. Nach dem Launch von seojuice.com habe ich als Erstes unser eigenes Internal-Linking-Tool über jeden Blogpost laufen lassen. Wir fanden 34 verwaiste Seiten an Tag eins. Vierunddreißig Seiten, zu denen Google keinen Pfad hatte. Diese Seiten hatten auf der alten Domain Traffic — und wären auf der neuen still und leise verschwunden. An Tag 3 sah ich dann die ersten verwaisten Seiten in der Search Console mit dem Status „Gefunden – zurzeit nicht indexiert“. Das ist Googles höfliche Art zu sagen: „Ich weiß, dass diese Seite existiert, aber ich habe keinen Grund, mich dafür zu interessieren.“ Interne Links geben Google einen Grund, sich zu interessieren.

Month 1: What Good Looks Like

Bis jetzt sollte deine Website indexiert werden. Die Notfallphase ist vorbei. In Monat 1 geht es darum, das zu beschleunigen, was funktioniert, und das zu reparieren, was nicht funktioniert.

WocheCheckErfolgsmetrikWenn es nicht klappt
Woche 2Index-Abdeckung wächstGSC zeigt täglich mehr indexierte SeitenAuf Crawl-Budget-Probleme, verwaiste Seiten oder blockierte Ressourcen prüfen
Woche 2Keine Ranking-Verluste bei wichtigen BegriffenTop 20 Keywords innerhalb von 5 Positionen im Vergleich zu vor dem Launch301-Redirects prüfen, Canonical-Tags prüfen, Onpage-Inhalte auditieren
Woche 3Organischer Traffic stabilisiert sichTraffic liegt bei mindestens 80% des Niveaus vor dem LaunchAuf noindex-Seiten, kaputte Redirects oder fehlende Inhalte prüfen
Woche 3Backlink-Profil intaktAnzahl verweisender Domains entspricht dem Stand vor dem LaunchKaputte Backlinks finden und Redirects einrichten
Woche 4Content Decay wurde nicht ausgelöstKeine Seiten mit >20% Traffic-RückgangGeänderte URLs auditieren, interne Links aktualisieren, Content-Parität prüfen
Woche 4KI-Sichtbarkeit bleibt erhaltenMarke erscheint weiterhin in ChatGPT/Perplexity für wichtige SuchanfragenZugriff für KI-Crawler prüfen, robots.txt-Direktiven prüfen, llms.txt aktualisieren

Die Metrik zur Traffic-Stabilisierung ist die, bei der die meisten nervös werden. Hier ist die Wahrheit: Fast jede Website-Migration hat einen temporären Traffic-Dip. Das ist normal. Google muss deinen Content unter der neuen URL-Struktur neu crawlen, neu indexieren und neu bewerten. Ein Rückgang von 10-20% in Woche 1-2, der sich bis Woche 3-4 erholt, ist völlig lehrbuchmäßig. Ein Einbruch von 50%, der sich bis Woche 4 nicht erholt, bedeutet, dass grundlegend etwas kaputt ist.

Bei unserer Migration lag der Dip bei 15%. Ich wusste das vorher — und habe in der ersten Woche trotzdem stündlich auf die Traffic-Kurve geschaut. Zu wissen, dass etwas normal ist, fühlt sich nicht normal an, wenn es deine eigenen Zahlen sind.

Ongoing Monitoring After Launch

Google Search Console Coverage Report mit Aufschlüsselung indexierter Seiten nach Statustyp
Die Status-Aufschlüsselung im Coverage Report zeigt, wie deine Seiten klassifiziert werden. Nach dem Launch willst du sehen, dass die Anzahl gültiger (indexierter) Seiten mit der Zeit wächst. Quelle: Oncrawl

Die Checkliste endet nicht nach 30 Tagen. Das sind die Dinge, die du nach jedem Website-Launch dauerhaft im Blick behalten solltest.

Wöchentlich: GSC auf neue Crawl-Fehler prüfen. Core Web Vitals überwachen. Neue 404-Seiten durchgehen. Das dauert 15 Minuten. Trag es in deinen Kalender ein. Ich mache das jeden Montagmorgen vor allem anderen.

Monatlich: Vollständigen Site-Crawl durchführen, um neue verwaiste Seiten zu finden. Broken-Link-Audit. Content-Decay-Check für deine Top 50 Seiten. KI-Sichtbarkeit für wichtige Suchanfragen prüfen.

Vierteljährlich: Vollständiges technisches Audit. Schema-Markup validieren. Redirect-Ketten bereinigen (Ketten werden mit der Zeit länger, wenn du mehr Redirects hinzufügst — wir hatten bis Monat 2 Ketten mit 4 Hops, weil jemand einen Redirect auf eine Seite gelegt hatte, die bereits weitergeleitet wurde). Analyse interner Links, damit deine Seitenarchitektur straff bleibt.

If Something Breaks: Triage Order

Detaillierte Ansicht des Google Search Console Coverage Reports mit konkreten Indexierungsproblemen und Anzahl betroffener URLs
Geh im Coverage Report in die Details, um konkrete Probleme bei der Indexierung zu sehen. Häufige Fehler nach dem Launch sind „Gecrawlt – zurzeit nicht indexiert“ und „Gefunden – zurzeit nicht indexiert“. Quelle: Oncrawl

Manchmal gehen Dinge trotz Checkliste kaputt. Hier ist die Triage-Priorität, wenn du auf eine Traffic-Klippe starrst.

SymptomWahrscheinliche UrsacheFixErholungszeit
Komplette Website deindexiertnoindex-Tag oder robots.txt blockiert alle CrawlerBlockade entfernen, Sitemap einreichen, Indexierung der Homepage anfordern3-7 Tage
50%+ Traffic-Einbruch über NachtKaputte 301-Redirects von der alten DomainJeden Redirect auditieren, defekte korrigieren, aktualisierte Sitemap einreichen2-4 Wochen
Bestimmte Seiten ranken nichtCanonical zeigt auf die falsche URLCanonical-Tags korrigieren, Re-Indexierung der betroffenen Seiten anfordern1-2 Wochen
Soft-404-Seiten vermehren sichTemplate-Seiten liefern 200 ohne Inhalt zurückFür tote Seiten korrekt 404/410 zurückgeben oder echten Inhalt hinzufügen1-3 Wochen
Rankings gefallen, aber Seiten indexiertProblem mit Content-Parität — neue Seiten haben weniger InhaltFehlenden Inhalt wiederherstellen, interne Links ergänzen, H1-Tags prüfen2-6 Wochen
Mobile Rankings brechen einNeues Design ist nicht responsiveResponsives Layout korrigieren, mit Google Mobile-Friendly Tool testen1-2 Wochen

Die ersten beiden Zeilen machen ungefähr 80% der Notfall-Anrufe aus, die ich nach einem Launch bekomme. Es ist fast immer ein noindex-Tag oder kaputte Redirects. Keine mysteriöse Algorithmus-Strafe. Keine Google-Verschwörung. Einfach nur übersehene Checkboxen.

Unsere Migrationsstory: SEOJuice.io → SEOJuice.com

Ich sollte selbst befolgen, was ich predige, also hier, was passiert ist, als wir SEOJuice im Januar 2026 von der .io-Domain auf .com umgezogen haben.

Wir liefen über ein Jahr auf seojuice.io. Solider Traffic, gutes Backlink-Profil, Rankings für unsere Ziel-Keywords. Aber ich wollte die .com. Nicht aus SEO-Gründen — die .io-Endung ist für Search völlig okay — sondern wegen Vertrauen. Wenn du an Agenturen und Enterprises verkaufst, ist die .com wichtiger, als sie eigentlich sein sollte.

Das haben wir gemacht:

Vor dem Wechsel: Jede URL der .io-Seite exportiert. Eine vollständige Redirect-Map gebaut. Jeden Redirect in Staging getestet. Alle internen Links auf .com-URLs umgestellt. Google über das Change-of-Address-Tool in der Search Console informiert.

Am Tag des Wechsels: Redirects ausgerollt. Neue Sitemap eingereicht. In GSC verifiziert, dass die .com-Property Daten empfängt. Server-Logs auf Crawl-Aktivität überwacht. Ich blieb bis Mitternacht wach und sah dabei zu, wie die Crawl-Rate von Googlebot langsam hochging.

Was passiert ist: Wir sahen in Woche 1 einen Traffic-Dip von 15%. In Woche 3 waren wir wieder auf dem Niveau vor der Migration. In Woche 6 lag der Traffic 12% darüber — teilweise, weil die .com-Domain offenbar mehr Klickrate aus den SERPs gezogen hat (Menschen vertrauen .com, selbst wenn es nur unterbewusst ist).

Was fast schiefging: Wir hatten einen Schwung alter Blogposts, in deren Inhalt hartcodierte .io-URLs steckten. Die Redirects haben externen Traffic sauber abgefangen, aber intern erzeugten diese Links Redirect-Ketten (Seite A verlinkt auf eine .io-URL, die per 301 auf die .com-URL weiterleitet). Wir haben das an Tag 3 bei der Server-Log-Prüfung entdeckt — genau deshalb steht dieser Check oben in der Tabelle für Woche 1. Hätte ich die Log-Prüfung ausgelassen, hätten sich diese Ketten still angesammelt, jede einzelne mit zusätzlicher Latenz und verwässerter Link Equity.

„Websites mit starker Content-Qualität, thematischer Autorität und sauberem technischem SEO stabilisieren sich nach einer Migration normalerweise schnell. Diejenigen, die sich nicht erholen, hatten meist schon vor dem Umzug versteckte Probleme.“

Genau das haben wir erlebt. Die Migration hat die Probleme nicht verursacht — sie hat sie sichtbar gemacht. Die verwaisten Seiten, die wir fanden, waren schon vor dem Umzug verwaist. Die hartcodierten URLs waren technische Schulden, kein Migrationsproblem. Die Checkliste hat uns nur dazu gezwungen, wirklich hinzuschauen.

Die Meta-Lektion

Jeder Punkt auf dieser Checkliste existiert, weil irgendjemand irgendwo ihn nicht geprüft und dadurch Traffic verloren hat. Das ist nicht dramatisiert. Der Redirect-Check ist drin, weil eine Ecommerce-Website mit $2M Umsatz nach einer Migration 44% ihres organischen Traffics verlor, weil jemand vergessen hatte, 3,000 Produkt-URLs zu mappen. Der noindex-Check ist drin, weil ein SaaS-Unternehmen mit aktivierter Option „Suchmaschinen abhalten“ live ging und es drei Wochen lang nicht bemerkte.

SEO nach dem Website-Launch ist nicht glamourös. Es ist eine Checkliste. Es ist Kästchen abhaken. Es ist, am Launch-Tag um 23 Uhr in Server-Logs zu starren, weil sich etwas falsch anfühlt. An unserem Launch-Tag wechselte ich zwischen einem Terminal, das Access-Logs tailte, und einem schreienden Zweijährigen, der sich weigerte, ins Bett zu gehen. Beide Situationen verlangten dasselbe: Geduld, einen systematischen Ansatz und die Akzeptanz, dass die nächsten 48 Stunden einfach so sein würden.

Aber genau das ist der Unterschied zwischen einem Launch, der sich zu Wachstum aufschaukelt, und einem Launch, von dem du dich anderthalb Jahre lang erholst.

Mach die Checkliste.

Häufig gestellte Fragen

Wie lange braucht Google, um eine neue Website zu indexieren?

Bei einer komplett neuen Domain solltest du nach dem Einreichen deiner Sitemap in der Google Search Console mit 1-2 Wochen für die erste Indexierung rechnen. Bei einer Domain-Migration (gleicher Inhalt, neue URL) indexiert Google die meisten Seiten typischerweise innerhalb von 1-4 Wochen neu. Wenn du für deine Homepage und wichtigsten Seiten über das URL-Prüfungstool die Indexierung anforderst, geht es schneller. Websites mit starkem Backlink-Profil und regelmäßig aktualisierten Inhalten werden schneller gecrawlt.

Ist ein temporärer Traffic-Rückgang nach einem Website-Launch normal?

Ja. Ein Traffic-Dip von 10-20% in den ersten 1-2 Wochen ist völlig normal, selbst bei sauber umgesetzten Launches. Google muss deinen Inhalt neu crawlen und neu bewerten. Die entscheidende Metrik ist die Erholung: Du solltest innerhalb von 3-4 Wochen wieder auf dem Niveau vor dem Launch sein. Wenn der Traffic nach 4 Wochen immer noch 30%+ darunter liegt, stimmt etwas nicht — fang mit der Notfall-Tabelle oben an.

Sollte ich alte Backlinks nach einer Domain-Migration disavowen?

Nein. Deine alten Backlinks geben über deine 301-Redirects weiterhin Linkkraft weiter. Wenn du sie disavowst, wirfst du verdiente Link Equity weg. Disavowe nur Links, die schon vor der Migration tatsächlich spammy waren. Den Rest regelt der Redirect.

Muss ich meine llms.txt-Datei nach einem Launch aktualisieren?

Wenn du eine hast: ja. Aktualisiere sie mit deiner neuen URL-Struktur und den wichtigsten Inhaltsseiten. Auch wenn llms.txt noch kein offizieller Standard ist, beziehen sich Claude und Perplexity darauf. Das ist eine Aufgabe von fünf Minuten, die sicherstellt, dass KI-Suchmaschinen eine klare Karte deiner Inhalte haben. Stell es dir wie eine Sitemap für KI vor — wenig Aufwand, potenziell hoher Ertrag.

Was ist, wenn ich keine Redirects für alte URLs habe?

Wenn du die alte Domain noch kontrollierst, richte sofort Redirects ein. Wenn du keinen Zugriff mehr auf die alte Domain hast, konzentriere dich darauf, neue Backlinks auf deine wichtigsten Seiten aufzubauen, und reiche eine umfassende Sitemap ein. Eine Erholung ohne Redirects dauert deutlich länger — rechne eher mit 3-6 Monaten statt 3-6 Wochen.

Tools, die das einfacher machen

Du kannst alles auf dieser Checkliste manuell mit Google Search Console und einer Tabelle erledigen. Aber wenn du das Monitoring lieber automatisieren willst, würde ich Folgendes empfehlen:

SEOJuice Site Audit — Direkt nach dem Launch ein vollständiges Audit laufen lassen. Erkennt noindex-Tags, kaputte Links, fehlendes Schema und 200+ weitere Probleme automatisch.

Broken Link Checker — Kritisch, um Redirect-Fehler zu finden. Lass ihn an Tag 1 und noch einmal an Tag 7 laufen.

SEO Hygiene Checklist — Unser kompletter Leitfaden für laufende SEO-Wartung. Passt perfekt zu dieser Checkliste für SEO nach dem Website-Launch in der Phase „laufendes Monitoring“.

Die Phase nach dem Launch ist der Punkt, an dem der meiste SEO-Wert gewonnen oder verloren wird. Die Teams, die sie als strukturierten Prozess behandeln — nicht als Feier — sind am Ende die, die vorne liegen.