TL;DR: Kreatory stron oparte na AI potrafią wygenerować czysty kod, ale często pomijają podstawy SEO. Zmapuj stare URL-e, ustaw przekierowania 301, zachowaj meta tagi i sprawdź indeksację przed oraz po przełączeniu. Wdrażaj zmiany etapami, żeby ograniczyć straty i przeprowadzić migrację do strony wygenerowanej przez AI bez utraty SEO.
Strony generowane przez AI są trochę jak nowe motywy WordPressa. Da się je postawić błyskawicznie, a SEO da się zepsuć jeszcze szybciej.
W ciągu ostatniego roku obserwowałem pięć migracji stron generowanych przez AI. Dwie poszły gładko. W trzech przypadkach ruch organiczny mocno spadł -- jedna strona straciła 47% kliknięć w mniej niż miesiąc. Schemat był zawsze ten sam: to, co wygenerowało AI, wyglądało świetnie, kod był czysty, ale nikt nie sprawdził, czy Google nadal może znaleźć te strony, zaindeksować je i utrzymać ich pozycje tam, gdzie faktycznie zarabiały pieniądze.
Sama technologia nie jest problemem. Narzędzia takie jak Lovable, v0 i Bolt potrafią wygenerować funkcjonalny, dobrze uporządkowany kod. Problem zaczyna się przy wdrożeniu. Kreatory stron AI nie przenoszą twoich tagów kanonicznych, map przekierowań, struktury linkowania wewnętrznego ani sygnałów EEAT. To właśnie te niewidoczne elementy utrzymują pozycje. Jeśli je zgubisz, to w praktyce uruchamiasz zupełnie nową stronę bez autorytetu, który budowałeś latami.
To schemat działania, którego używam przy migracjach wspieranych przez AI. Gdy trzymamy się procesu, spadki ruchu zostają poniżej 5%. Gdy zespoły pomijają kroki, średni spadek w branży kręci się w okolicach 40%.
Zanim choćby jeden akapit wygenerowany przez AI trafi na produkcję, wykonaj dokładny audyt stanu wyjściowego strony, którą zaraz zmienisz. To nie jest opcjonalne -- to twoja grupa kontrolna, dzięki której udowodnisz wzrost ruchu albo odpowiednio wcześnie wyłapiesz mocny spadek, żeby dało się wycofać zmiany.


| Źródło danych | Plik do eksportu | Kluczowe kolumny |
|---|---|---|
| GSC | query-performance.csv |
URL, zapytanie, pozycja, kliknięcia, wyświetlenia |
| Ahrefs/Semrush | backlinks_export.csv |
URL, domeny odsyłające, DR/DA, szacowana wartość ruchu |
| Crawler | crawl_all_urls.csv |
URL, status, canonical, inlinks, title, meta |
| PageSpeed API | core_web_vitals.csv |
URL, LCP, INP, CLS, device |
Trzymaj to w folderze z datą. To jest twoje zdjęcie "przed".
Poziomy ruchu:
Role konwersyjne:
Dodaj do głównego arkusza kolumny traffic_tier i conversion_role. Jedna szybka tabela przestawna pokaże ci, których URL-i absolutnie nie możesz spartolić, a które mogą posłużyć jako niskiego ryzyka poligon testowy dla AI.
(Mała dygresja: u jednego klienta 73% przychodu organicznego pochodziło z zaledwie 8 stron. Tych 8 stron w ogóle nie było przerabianych przez AI, dopóki Fale 1 i 2 nie potwierdziły, że proces działa na stronach o niskiej wartości. Ta powściągliwość uratowała ich przed bardzo drogą pomyłką.)
Najgorsze historie o migracjach z AI zaczynają się od zdania: "Opublikowaliśmy 5000 nowych stron i skanibalizowaliśmy własne pozycje". Zmapuj każdy URL, jego intencję i nakładanie się z innymi stronami, zanim AI zacznie cokolwiek pisać.
| Sygnał | Narzędzie / metoda | Próg |
|---|---|---|
| Prawie zduplikowane akapity | Screaming Frog > Content > Similarity | Similarity 90%+ |
| Niska liczba słów | Formuła w arkuszu na kolumnie word_count | Poniżej 300 słów |
| Strony zombie | Połączenie danych z GSC + Ahrefs | 0 kliknięć, 0 linków przez 6 miesięcy |
| Decyzja | Kryteria | Działanie |
|---|---|---|
| Zachować bez zmian | Ruch Tier-1, unikalne backlinki, mocne EEAT | Tylko ręczna redakcja; bez generowania przez AI |
| Przepisać z udziałem człowieka | Tier-1/2, krytyczne dla EEAT (finanse, zdrowie) | Wersja robocza od człowieka z pomocą AI maksymalnie do 20%, solidny fact-check |
| Zastąpić przez AI | Ruch Tier-3, brak backlinków, cienkie treści | Pełna wersja robocza z AI, co najmniej 20% ręcznej redakcji przez człowieka, kontrola jakości |
| Scalić i przekierować | Zduplikowana intencja, nakładające się strony | Połącz w jeden URL; słabsze strony przekieruj 301 |
| Usunąć | Strony zombie, brak linków, brak konwersji | Usuń; zwróć 410 Gone; wyślij zaktualizowaną sitemapę |
/ai-preview/), które odwzorowuje hierarchię URL-i z wersji live. Nigdy nie używaj subdomeny -- subdomeny rozbijają autorytet./pricing/ na produkcji powinno być /ai-preview/pricing/ na środowisku testowym. Gdy przyjdzie moment przełączenia, zamieniasz rooty zamiast przepisywać linki.| Parametr | Rekomendowane ustawienie | Dlaczego |
|---|---|---|
| Model | GPT-4o or Claude 3 Sonnet | Lepsze rozumowanie ogranicza błędy faktograficzne |
| Temperature | 0.4-0.6 | Bardziej zróżnicowany ton bez skoków halucynacji |
| Human Overwrite | Co najmniej 20% widocznego tekstu | Podnosi entropię dla detektorów AI i wnosi realną ekspertyzę |
| Fact-Check Pass | Cytowania inline do źródeł pierwotnych | Spełnia EEAT; zmniejsza ryzyko dezinformacji |
| EEAT Citations | 2+ cytaty ekspertów albo statystyki na każde 1,000 słów | Wzmacnia sygnały zaufania dla zapytań YMYL |
Proces wygląda tak: generowanie, przepuszczenie przez Grammarly, redakcja przez człowieka, fact-check, test detektorem -- wszystko na środowisku testowym.
Próg dla detektora AI: Uruchom GPTZero albo Sapling. Celuj w mniej niż 35% "likely AI". Wszystko powyżej wraca do mocniejszej redakcji przez człowieka.
Checklist on-page: H1 zawiera primary keyword (poniżej 60 znaków), meta title i description są unikalne oraz zoptymalizowane, co najmniej 8 kontekstowych linków wewnętrznych z różnorodnymi anchorami, schema markup przechodzi walidację w teście Rich Results.
Tylko strony, które przejdą wszystkie bramki kontroli jakości, trafiają ze środowiska testowego na wersję live.
| Fala | Pula stron | Logika wyboru | Cel | Okno |
|---|---|---|---|---|
| Fala 1 | 10% stron o niskiej wartości | URL-e Tier-3 z mniej niż 1% kliknięć, bez wartości backlinkowej | Zweryfikować rendering, schema i wyniki detektorów AI | 7 dni |
| Fala 2 | 10% stron o średniej wartości | Informacyjne wpisy Tier-2, umiarkowany ruch | Potwierdzić stabilność pozycji na URL-ach z większą stawką | 14 dni |
| Fala 3 | 80% pozostałych stron | Strony sprzedażowe + reszta zasobów | Pełna migracja po tym, jak Fale 1-2 pokażą mniej niż 5% odchylenia | 30-45 dni |
Gdzie tylko się da, rób split-testy: zachowaj oryginalny HTML w wariancie z query parametrem (?v=control) i kieruj tam 10% ruchu przez server-side A/B routing.
Dashboardy w czasie rzeczywistym:
Progi alertów automatycznych:
Protokół wycofania zmian: Ponownie włącz stary HTML przez parametr kontrolny, przełącz 302 z powrotem na oryginalny plik, wyślij inspekcję URL w GSC, żeby wymusić ponowne zeskanowanie, i zrób audyt przyczyny źródłowej.
(Jeszcze jedna dygresja: miałem klienta, który spanikował, gdy strony z Fali 1 pokazały 12% spadku ruchu po czterech dniach. Sprawdziliśmy to -- okazało się, że spadek był sezonowy i idealnie pokrywał się z tym samym wzorcem z poprzedniego roku. Strony AI działały identycznie jak oryginały. Wniosek: zawsze porównuj do tego samego okresu rok do roku, a nie tylko do zeszłego tygodnia.)
Jeśli spadek przekracza 15% i utrzymuje się dłużej niż siedem kolejnych dni, albo jeśli konwersje spadną o więcej niż 10%, wycofaj zmiany. Przywróć stary HTML, sprawdź logi i napraw problem przed ponownym wdrożeniem.
Nie automatycznie. Google karze niskiej jakości albo wprowadzające w błąd treści niezależnie od tego, kto je napisał. Ryzyko polega na publikowaniu mdłego, niskoentropijnego tekstu z AI, który nie przechodzi kontroli EEAT. Rozwiązanie: co najmniej 20% ręcznej redakcji przez człowieka, cytowania i wyniki prawdopodobieństwa AI poniżej 35%.
Nie rób tego. Subdomeny dzielą link equity i zmuszają Google do ponownego uczenia się sygnałów zaufania. Migruj w obrębie subfolderów i zachowaj identyczne slugi URL-i.
Wymuś etap fact-checku: każ modelowi dołączać URL-e, a potem niech człowiek zweryfikuje każdy link. Każde twierdzenie, którego nie da się podeprzeć źródłem, trzeba przepisać albo usunąć.
Wycofaj zmiany, jeśli spadek przekracza 15% przez więcej niż siedem kolejnych dni albo jeśli konwersje spadną o więcej niż 10%. Przywróć stary HTML, sprawdź logi i napraw problem przed ponownym wdrożeniem.
Co miesiąc. Aktualizuj ton marki, nowe statystyki i wzorce unikania detektorów. Stare prompty z czasem znowu wprowadzają powtarzalność, obniżają entropię i zwiększają ryzyko wykrycia.

no credit card required
No related articles found.