TL;DR: KI-Website-Builder erzeugen zwar sauberen Code, lassen aber SEO-Grundlagen gern unter den Tisch fallen. Wenn du eine Migration zu einer KI-generierten Website planst, mappe zuerst deine alten URLs, richte 301-Weiterleitungen ein, übernimm Meta-Tags und prüfe die Indexierung vor und nach dem Wechsel. Ein gestaffelter Rollout begrenzt den Schaden.
KI-generierte Websites sind die neuen WordPress-Themes. Schnell aufgesetzt, SEO genauso schnell ruiniert.
Ich habe in den letzten zwölf Monaten fünf KI-gestützte Website-Migrationen beobachtet. Zwei liefen sauber durch. Drei haben organischen Traffic verloren -- eine davon büßte in weniger als einem Monat 47 % der Klicks ein. Das Muster war jedes Mal ähnlich: Der KI-Output sah großartig aus, der Code war sauber, und niemand hat geprüft, ob Google diese Seiten noch finden, crawlen und ranken kann.
Die Technologie ist nicht das Problem. Tools wie Lovable, v0 und Bolt liefern funktionalen, gut strukturierten Code. Das Problem ist die Übergabe. KI-Website-Builder übernehmen weder Canonical-Tags noch Redirect-Maps, interne Verlinkung oder EEAT-Signale automatisch. Genau diese unsichtbaren Elemente halten deine Rankings stabil. Lässt du sie weg, gehst du im Grunde mit einer komplett neuen Website live -- ohne die Autorität, die du dir aufgebaut hast.
Dieser Leitfaden ist das Vorgehensmodell, das ich für KI-gestützte Migrationen nutze. Wenn wir uns daran halten, bleiben Traffic-Dellen unter 5 %. Wenn Teams Schritte überspringen, liegt der durchschnittliche Einbruch in der Praxis eher bei 40 %.
Bevor auch nur ein einziger KI-generierter Absatz live geht, brauchst du eine forensische Momentaufnahme der Website, die du gleich veränderst. Das ist nicht optional -- das ist deine Kontrollgruppe, mit der du später jeden Traffic-Anstieg belegen oder einen Absturz früh genug erkennen kannst, um zurückzurollen.


| Datenquelle | Zu exportierende Datei | Wichtige Spalten |
|---|---|---|
| GSC | query-performance.csv |
URL, Suchanfrage, Position, Klicks, Impressionen |
| Ahrefs/Semrush | backlinks_export.csv |
URL, verweisende Domains, DR/DA, Traffic Value |
| Crawler | crawl_all_urls.csv |
URL, Status, Canonical, Inlinks, Title, Meta Description |
| PageSpeed API | core_web_vitals.csv |
URL, LCP, INP, CLS, Gerät |
Speichere alles in einem datierten Ordner. Das ist dein „Vorher“-Bild.
Traffic-Stufen:
Conversion-Rollen:
Füge deinem zentralen Migrations-Sheet die Spalten traffic_tier und conversion_role hinzu. Mit einer schnellen Pivot-Tabelle siehst du sofort, welche URLs du auf keinen Fall beschädigen darfst -- und welche sich als risikoarmes Testfeld für KI eignen.
(Kleine Randnotiz: Bei einem Kunden kamen 73 % des organischen Umsatzes von nur 8 Seiten. Diese 8 Seiten wurden zunächst überhaupt nicht mit KI überarbeitet, bis Welle 1 und 2 bewiesen hatten, dass der Prozess auf Seiten mit geringem Wert funktioniert. Diese Zurückhaltung hat ihnen einen ziemlich teuren Fehler erspart.)
Die schlimmsten KI-Migrationsgeschichten beginnen mit: „Wir haben 5.000 neue Seiten live gestellt und unsere eigenen Rankings kannibalisiert.“ Bevor die KI überhaupt anfängt zu schreiben, musst du jede URL, ihre Suchintention und mögliche Überschneidungen erfassen.
| Signal | Tool / Methode | Schwellenwert |
|---|---|---|
| Nahezu doppelte Absätze | Screaming Frog > Content > Similarity | Similarity 90 %+ |
| Niedrige Wortanzahl | Sheet-Formel auf der Spalte word_count |
Unter 300 Wörtern |
| Zombie-Seiten | GSC + Ahrefs zusammenführen | 0 Klicks, 0 Links über 6 Monate |
| Entscheidung | Kriterien | Aktion |
|---|---|---|
| Unverändert behalten | Tier-1-Traffic, einzigartige Backlinks, starke EEAT-Signale | Nur manuelles Copy-Editing; keine KI-Generierung |
| Umschreiben (menschengeführt) | Tier-1/2, EEAT-kritisch (Finanzen, Gesundheit) | Menschlicher Entwurf mit maximal 20 % KI-Unterstützung, intensiver Faktencheck |
| Durch KI ersetzen | Tier-3-Traffic, keine Backlinks, dünner Content | Vollständiger KI-Entwurf, 20 % menschliche Überarbeitung, Qualitätssicherungs-Durchlauf |
| Konsolidieren und weiterleiten | Doppelte Suchintention, überlappende Seiten | Zu einer einzigen URL zusammenführen; die schwächeren Seiten per 301 weiterleiten |
| Löschen | Zombie-Seiten, keine Links, keine Conversions | Entfernen; 410 Gone zurückgeben; aktualisierte Sitemap einreichen |
/ai-preview/) ein, der die aktive URL-Hierarchie spiegelt. Nutze niemals eine Subdomain -- Subdomains zersplittern Autorität./pricing/ in Production sollte auf Staging /ai-preview/pricing/ sein. Wenn du umschaltest, tauschst du die Root aus, statt Links neu zu schreiben.| Parameter | Empfohlene Einstellung | Warum |
|---|---|---|
| Modell | GPT-4o oder Claude 3 Sonnet | Besseres Reasoning reduziert faktische Ausrutscher |
| Temperature | 0.4-0.6 | Variabler Ton ohne Halluzinationsspitzen |
| Menschliche Überarbeitung | Mindestens 20 % des sichtbaren Texts | Erhöht die Entropie gegenüber KI-Detektoren und bringt echte Expertise rein |
| Faktencheck-Durchlauf | Inline-Zitate mit Primärquellen | Erfüllt EEAT; senkt das Risiko von Fehlinformationen |
| EEAT-Zitate | 2+ Expertenzitate oder Statistiken pro 1.000 Wörter | Stärkt Trust-Signale bei YMYL-Suchanfragen |
Workflow: generieren, durch Grammarly laufen lassen, menschliche Überarbeitung, Faktencheck, Detektor-Test -- alles innerhalb von Staging.
KI-Detektor-Schwelle: Nutze GPTZero oder Sapling. Zielwert: unter 35 % „likely AI“. Alles darüber geht zurück und bekommt deutlich mehr menschliche Bearbeitung.
Onpage-Checkliste: H1 enthält das primäre Keyword (unter 60 Zeichen), Meta-Title und Meta Description sind einzigartig und optimiert, mindestens 8 kontextuelle interne Links mit Anchor-Diversität, Schema-Markup validiert im Rich-Results-Test.
Nur Seiten, die alle QA-Gates bestehen, dürfen von Staging live gehen.
| Welle | Seiten-Pool | Auswahllogik | Ziel | Zeitraum |
|---|---|---|---|---|
| Welle 1 | 10 % Seiten mit geringem Wert | Tier-3-URLs mit unter 1 % der Klicks, ohne Backlink-Equity | Rendering, Schema und KI-Detektor-Scores validieren | 7 Tage |
| Welle 2 | 10 % Seiten mit mittlerem Wert | Informative Tier-2-Posts mit moderatem Traffic | Ranking-Stabilität auf wichtigeren URLs bestätigen | 14 Tage |
| Welle 3 | 80 % der verbleibenden Seiten | Umsatzseiten + restliches Inventar | Vollständige Migration, nachdem Welle 1-2 weniger als 5 % Abweichung zeigen | 30-45 Tage |
Teste, wo immer möglich, per Split-Test: Behalte das ursprüngliche HTML in einer Query-Parameter-Variante (?v=control) und leite 10 % des Traffics per serverseitigem A/B-Routing dorthin.
Echtzeit-Dashboards:
Automatisierte Alert-Schwellen:
Rollback-Protokoll: Aktiviere das bisherige HTML über den Control-Parameter wieder, setze die 302 auf die Originaldatei zurück, reiche in GSC eine URL-Prüfung ein, um ein Re-Crawling anzustoßen, und analysiere die Ursache.
(Noch eine Randnotiz: Ich hatte mal einen Kunden, der in Panik geraten ist, als seine Seiten aus Welle 1 nach vier Tagen 12 % weniger Traffic zeigten. Wir haben nachgeschaut -- der Rückgang war saisonal und entsprach exakt demselben Muster wie im Vorjahr. Die KI-Seiten performten identisch zu den Originalen. Die Lektion: Vergleiche immer mit demselben Zeitraum im Vorjahr, nicht nur mit letzter Woche.)
Nicht automatisch. Google bestraft minderwertige oder irreführende Inhalte -- unabhängig davon, wer sie geschrieben hat. Das Risiko liegt darin, blassen, entropiearmen KI-Text zu veröffentlichen, der bei EEAT-Prüfungen durchfällt. Die Lösung: 20 % menschliche Überarbeitung, Quellenangaben und KI-Wahrscheinlichkeitswerte unter 35 %.
Nein. Subdomains teilen Link-Equity auf und zwingen Google dazu, Trust-Signale neu zu lernen. Migriere innerhalb von Subfoldern und halte die URL-Slugs identisch.
Erzwinge einen Faktencheck-Durchlauf: Weise das Modell an, URLs mitzuliefern, und lass anschließend jeden Link von einem Menschen prüfen. Jede Behauptung, die sich nicht belegen lässt, muss umgeschrieben oder entfernt werden.
Zurückrollen, wenn der Rückgang länger als sieben aufeinanderfolgende Tage über 15 % liegt oder wenn die Conversions um mehr als 10 % fallen. Aktiviere das bisherige HTML wieder, prüfe die Logs und behebe das Problem vor dem Relaunch.
Monatlich. Aktualisiere Markenstimme, neue Statistiken und Muster, die eine Erkennung unwahrscheinlicher machen. Veraltete Prompts führen wieder zu Wiederholungen, senken die Entropie und erhöhen das Risiko, erkannt zu werden.

no credit card required