Migration zu einer KI-generierten Website ohne SEO-Verlust

Vadim Kravcenko
Vadim Kravcenko
· 5 min read

TL;DR: KI-Website-Builder erzeugen zwar sauberen Code, lassen aber SEO-Grundlagen gern unter den Tisch fallen. Wenn du eine Migration zu einer KI-generierten Website planst, mappe zuerst deine alten URLs, richte 301-Weiterleitungen ein, übernimm Meta-Tags und prüfe die Indexierung vor und nach dem Wechsel. Ein gestaffelter Rollout begrenzt den Schaden.

KI-generierte Websites sind die neuen WordPress-Themes. Schnell aufgesetzt, SEO genauso schnell ruiniert.

Ich habe in den letzten zwölf Monaten fünf KI-gestützte Website-Migrationen beobachtet. Zwei liefen sauber durch. Drei haben organischen Traffic verloren -- eine davon büßte in weniger als einem Monat 47 % der Klicks ein. Das Muster war jedes Mal ähnlich: Der KI-Output sah großartig aus, der Code war sauber, und niemand hat geprüft, ob Google diese Seiten noch finden, crawlen und ranken kann.

Die Technologie ist nicht das Problem. Tools wie Lovable, v0 und Bolt liefern funktionalen, gut strukturierten Code. Das Problem ist die Übergabe. KI-Website-Builder übernehmen weder Canonical-Tags noch Redirect-Maps, interne Verlinkung oder EEAT-Signale automatisch. Genau diese unsichtbaren Elemente halten deine Rankings stabil. Lässt du sie weg, gehst du im Grunde mit einer komplett neuen Website live -- ohne die Autorität, die du dir aufgebaut hast.

Dieser Leitfaden ist das Vorgehensmodell, das ich für KI-gestützte Migrationen nutze. Wenn wir uns daran halten, bleiben Traffic-Dellen unter 5 %. Wenn Teams Schritte überspringen, liegt der durchschnittliche Einbruch in der Praxis eher bei 40 %.

Schritt 1: Baseline-Audit für die Migration zu einer KI-generierten Website

Bevor auch nur ein einziger KI-generierter Absatz live geht, brauchst du eine forensische Momentaufnahme der Website, die du gleich veränderst. Das ist nicht optional -- das ist deine Kontrollgruppe, mit der du später jeden Traffic-Anstieg belegen oder einen Absturz früh genug erkennen kannst, um zurückzurollen.

A realistic team or solo developer preparing a website launch with planning documents or a checklist, visually supporting the build-test-launch and phased rollout process.
A realistic team or solo developer preparing a website launch with planning documents or a checklist, visually supporting the build-test-launch and phased rollout process.. Source: HubSpot Blog
A professional reviewing SEO performance, URL inventory, or migration benchmarks on a laptop to represent the baseline audit and pre-migration analysis process.
A professional reviewing SEO performance, URL inventory, or migration benchmarks on a laptop to represent the baseline audit and pre-migration analysis process.. Source: Search Engine Journal

Crawlen und Benchmarks festhalten

  1. Vollständiges URL-Inventar. Starte einen Crawl mit Screaming Frog oder Sitebulb, um jede aktive URL, jeden Statuscode, jedes Canonical-Ziel und die Anzahl interner Links zu erfassen. Exportiere alles als CSV -- das wird dein zentrales Migrations-Sheet.
  2. Ranking- und Backlink-Baseline. Exportiere aus Google Search Console die wichtigsten Suchanfragen, Positionen, Klicks und Impressionen. Zieh für jede URL Daten aus Ahrefs oder Semrush: DR, verweisende Domains, Anchor-Diversität und Traffic Value. Markiere URLs mit starken Backlinks -- diese Seiten sind für den Ranking-Erhalt nicht verhandelbar.
  3. Core Web Vitals-Snapshot. Nutze den GSC-Core-Web-Vitals-Report oder die PageSpeed Insights API für LCP-, INP- und CLS-Werte pro Template. Dokumentiere alles, was außerhalb der von Google als „gut“ eingestuften Schwellenwerte liegt. KI-Text rettet dich nicht, wenn die Performance einbricht.

Diese Baseline-Dateien solltest du exportieren

Datenquelle Zu exportierende Datei Wichtige Spalten
GSC query-performance.csv URL, Suchanfrage, Position, Klicks, Impressionen
Ahrefs/Semrush backlinks_export.csv URL, verweisende Domains, DR/DA, Traffic Value
Crawler crawl_all_urls.csv URL, Status, Canonical, Inlinks, Title, Meta Description
PageSpeed API core_web_vitals.csv URL, LCP, INP, CLS, Gerät

Speichere alles in einem datierten Ordner. Das ist dein „Vorher“-Bild.

Seiten nach Wert taggen

Traffic-Stufen:

  • Tier 1 (Top 10 %): Seiten, die 50 %+ der organischen Klicks bringen
  • Tier 2 (Nächste 30 %): Stabiler Traffic, mittlere Conversion-Rate
  • Tier 3 (Untere 60 %): Longtail- oder saisonale Seiten

Conversion-Rollen:

  • Umsatzseiten: Direkter Umsatz oder Leadgenerierung
  • Assistenzseiten: Blogposts, Guides, Vergleichs-Content
  • Support-Seiten: FAQs, Doku, Rechtliches

Füge deinem zentralen Migrations-Sheet die Spalten traffic_tier und conversion_role hinzu. Mit einer schnellen Pivot-Tabelle siehst du sofort, welche URLs du auf keinen Fall beschädigen darfst -- und welche sich als risikoarmes Testfeld für KI eignen.

(Kleine Randnotiz: Bei einem Kunden kamen 73 % des organischen Umsatzes von nur 8 Seiten. Diese 8 Seiten wurden zunächst überhaupt nicht mit KI überarbeitet, bis Welle 1 und 2 bewiesen hatten, dass der Prozess auf Seiten mit geringem Wert funktioniert. Diese Zurückhaltung hat ihnen einen ziemlich teuren Fehler erspart.)

Schritt 2: Content-Inventar für eine KI-generierte Website und Kannibalisierungsübersicht

Die schlimmsten KI-Migrationsgeschichten beginnen mit: „Wir haben 5.000 neue Seiten live gestellt und unsere eigenen Rankings kannibalisiert.“ Bevor die KI überhaupt anfängt zu schreiben, musst du jede URL, ihre Suchintention und mögliche Überschneidungen erfassen.

Suchintention mappen und Kannibalen finden

  • Gruppiere URLs nach Keyword-Stamm (z. B. „ai writing tool“, „ai content generator“)
  • Sortiere jede Gruppe nach Klicks + Conversions
  • Seiten mit demselben Stamm und ähnlichen Signalen zur Suchintention sind deine Kannibalisierungs-Cluster
  • Markiere Überschneidungen, bei denen zwei URLs für dieselbe Suchanfrage in den Top 20 ranken -- eine davon wird nach der Migration abstürzen, wenn du nicht bewusst steuerst

Duplikate und Thin Content erkennen

Signal Tool / Methode Schwellenwert
Nahezu doppelte Absätze Screaming Frog > Content > Similarity Similarity 90 %+
Niedrige Wortanzahl Sheet-Formel auf der Spalte word_count Unter 300 Wörtern
Zombie-Seiten GSC + Ahrefs zusammenführen 0 Klicks, 0 Links über 6 Monate

Entscheiden: Behalten, umschreiben, ersetzen

Entscheidung Kriterien Aktion
Unverändert behalten Tier-1-Traffic, einzigartige Backlinks, starke EEAT-Signale Nur manuelles Copy-Editing; keine KI-Generierung
Umschreiben (menschengeführt) Tier-1/2, EEAT-kritisch (Finanzen, Gesundheit) Menschlicher Entwurf mit maximal 20 % KI-Unterstützung, intensiver Faktencheck
Durch KI ersetzen Tier-3-Traffic, keine Backlinks, dünner Content Vollständiger KI-Entwurf, 20 % menschliche Überarbeitung, Qualitätssicherungs-Durchlauf
Konsolidieren und weiterleiten Doppelte Suchintention, überlappende Seiten Zu einer einzigen URL zusammenführen; die schwächeren Seiten per 301 weiterleiten
Löschen Zombie-Seiten, keine Links, keine Conversions Entfernen; 410 Gone zurückgeben; aktualisierte Sitemap einreichen

Schritt 3: Build-Test-Launch-Pipeline für eine KI-generierte Website

Technischer Blueprint

  • Erst spiegeln, dann veröffentlichen. Richte einen Staging-Subfolder (/ai-preview/) ein, der die aktive URL-Hierarchie spiegelt. Nutze niemals eine Subdomain -- Subdomains zersplittern Autorität.
  • Slugs identisch halten. /pricing/ in Production sollte auf Staging /ai-preview/pricing/ sein. Wenn du umschaltest, tauschst du die Root aus, statt Links neu zu schreiben.
  • Self-referencing Canonicals. Auf Staging-Seiten sollte das Canonical schon auf die geplante aktive URL zeigen, selbst während des Tests.
  • Temporäre 302s während der Qualitätssicherung. Wenn eine Seite von Staging nach Production wandert, schalte sie zunächst für ein bis zwei Wochen hinter einer 302 frei. Halten die Metriken, wandelst du auf 301 um.

Richtlinien für die KI-Content-Generierung

Parameter Empfohlene Einstellung Warum
Modell GPT-4o oder Claude 3 Sonnet Besseres Reasoning reduziert faktische Ausrutscher
Temperature 0.4-0.6 Variabler Ton ohne Halluzinationsspitzen
Menschliche Überarbeitung Mindestens 20 % des sichtbaren Texts Erhöht die Entropie gegenüber KI-Detektoren und bringt echte Expertise rein
Faktencheck-Durchlauf Inline-Zitate mit Primärquellen Erfüllt EEAT; senkt das Risiko von Fehlinformationen
EEAT-Zitate 2+ Expertenzitate oder Statistiken pro 1.000 Wörter Stärkt Trust-Signale bei YMYL-Suchanfragen

Workflow: generieren, durch Grammarly laufen lassen, menschliche Überarbeitung, Faktencheck, Detektor-Test -- alles innerhalb von Staging.

Qualitätssicherungs-Gate

KI-Detektor-Schwelle: Nutze GPTZero oder Sapling. Zielwert: unter 35 % „likely AI“. Alles darüber geht zurück und bekommt deutlich mehr menschliche Bearbeitung.

Onpage-Checkliste: H1 enthält das primäre Keyword (unter 60 Zeichen), Meta-Title und Meta Description sind einzigartig und optimiert, mindestens 8 kontextuelle interne Links mit Anchor-Diversität, Schema-Markup validiert im Rich-Results-Test.

Nur Seiten, die alle QA-Gates bestehen, dürfen von Staging live gehen.

Schritt 4: Gestaffelter Launch einer KI-generierten Website

10-10-80-Rollout

Welle Seiten-Pool Auswahllogik Ziel Zeitraum
Welle 1 10 % Seiten mit geringem Wert Tier-3-URLs mit unter 1 % der Klicks, ohne Backlink-Equity Rendering, Schema und KI-Detektor-Scores validieren 7 Tage
Welle 2 10 % Seiten mit mittlerem Wert Informative Tier-2-Posts mit moderatem Traffic Ranking-Stabilität auf wichtigeren URLs bestätigen 14 Tage
Welle 3 80 % der verbleibenden Seiten Umsatzseiten + restliches Inventar Vollständige Migration, nachdem Welle 1-2 weniger als 5 % Abweichung zeigen 30-45 Tage

Teste, wo immer möglich, per Split-Test: Behalte das ursprüngliche HTML in einer Query-Parameter-Variante (?v=control) und leite 10 % des Traffics per serverseitigem A/B-Routing dorthin.

Monitoring und Rollback

Echtzeit-Dashboards:

  • Indexabdeckung (GSC): Achte auf Ausschläge bei „Crawled -- currently not indexed“
  • Ranking-Deltas (Ahrefs/Semrush): Überwache Top-100-Keywords auf Verluste von 2+ Positionen
  • Crawl-Fehler (Logfiles): Markiere neue 404/500er innerhalb von Minuten

Automatisierte Alert-Schwellen:

  • Traffic-Rückgang: 15 %+ Verlust auf einer Tier-1-Seite über ein rollierendes 7-Tage-Fenster
  • Bounce-Anstieg: 10+ Prozentpunkte mehr auf migrierten Templates
  • INP-Verschlechterung: INP überschreitet 200ms auf neuem HTML

Rollback-Protokoll: Aktiviere das bisherige HTML über den Control-Parameter wieder, setze die 302 auf die Originaldatei zurück, reiche in GSC eine URL-Prüfung ein, um ein Re-Crawling anzustoßen, und analysiere die Ursache.

(Noch eine Randnotiz: Ich hatte mal einen Kunden, der in Panik geraten ist, als seine Seiten aus Welle 1 nach vier Tagen 12 % weniger Traffic zeigten. Wir haben nachgeschaut -- der Rückgang war saisonal und entsprach exakt demselben Muster wie im Vorjahr. Die KI-Seiten performten identisch zu den Originalen. Die Lektion: Vergleiche immer mit demselben Zeitraum im Vorjahr, nicht nur mit letzter Woche.)

Schritt 5: Optimierung nach der Migration zu einer KI-generierten Website

  • Monatliches Prompt-Refresh. Aktualisiere KI-Prompts mit neuen Branchenstatistiken, Anpassungen an der Markenstimme und Learnings dazu, welche Muster eine Erkennung unwahrscheinlicher machen.
  • Quartalsweise Link-Reclamation. Prüfe in Ahrefs verlorene Links, die durch URL-Anpassungen entstanden sind; hole sie per Outreach oder aktualisierten Redirects zurück.
  • Core Web Vitals-Tuning. Prüfe INP, LCP und CLS nach jedem Layout- oder Script-Change in KI-Templates erneut.
  • Authority-Content einspeisen. Plane quartalsweise von Menschen geschriebene Deep Dives oder Experteninterviews ein, um EEAT bei sensiblen Themen zu stärken.
  • Detektor-Monitoring. Halte die KI-Wahrscheinlichkeit sitewide unter 35 %; wenn sie driftet, erhöhe den Anteil menschlicher Überarbeitung.

FAQ zur Migration zu einer KI-generierten Website

Bestraft Google KI-geschriebene Seiten?

Nicht automatisch. Google bestraft minderwertige oder irreführende Inhalte -- unabhängig davon, wer sie geschrieben hat. Das Risiko liegt darin, blassen, entropiearmen KI-Text zu veröffentlichen, der bei EEAT-Prüfungen durchfällt. Die Lösung: 20 % menschliche Überarbeitung, Quellenangaben und KI-Wahrscheinlichkeitswerte unter 35 %.

Kann ich mein Blog beim Wechsel auf KI auf eine Subdomain verschieben?

Nein. Subdomains teilen Link-Equity auf und zwingen Google dazu, Trust-Signale neu zu lernen. Migriere innerhalb von Subfoldern und halte die URL-Slugs identisch.

Unsere KI-Entwürfe zitieren Quellen, die gar nicht existieren -- wie stoppen wir Halluzinationen?

Erzwinge einen Faktencheck-Durchlauf: Weise das Modell an, URLs mitzuliefern, und lass anschließend jeden Link von einem Menschen prüfen. Jede Behauptung, die sich nicht belegen lässt, muss umgeschrieben oder entfernt werden.

Der Traffic auf Umsatzseiten ist nach Welle 2 um 18 % gefallen -- zurückrollen oder abwarten?

Zurückrollen, wenn der Rückgang länger als sieben aufeinanderfolgende Tage über 15 % liegt oder wenn die Conversions um mehr als 10 % fallen. Aktiviere das bisherige HTML wieder, prüfe die Logs und behebe das Problem vor dem Relaunch.

Wie oft sollte ich KI-Prompts nach der Migration aktualisieren?

Monatlich. Aktualisiere Markenstimme, neue Statistiken und Muster, die eine Erkennung unwahrscheinlicher machen. Veraltete Prompts führen wieder zu Wiederholungen, senken die Entropie und erhöhen das Risiko, erkannt zu werden.

Weiterlesen

Bild