TL;DR: Kreatory stron oparte na AI potrafią wygenerować czysty kod, ale często pomijają podstawy SEO. Zmapuj stare URL-e, ustaw przekierowania 301, zachowaj meta tagi i sprawdź indeksację przed oraz po przełączeniu. Wdrażaj zmiany etapami, żeby ograniczyć straty.
Strony generowane przez AI są trochę jak nowe motywy WordPressa. Da się je postawić błyskawicznie, a SEO da się zepsuć jeszcze szybciej.
W ciągu ostatniego roku obserwowałem pięć migracji stron opartych na AI. Dwie poszły gładko. Trzy wykrwawiły ruch organiczny -- jedna straciła 47% kliknięć w mniej niż miesiąc. Schemat był zawsze ten sam: efekt z AI wyglądał świetnie, kod był czysty, ale nikt nie sprawdził, czy Google nadal może znaleźć, zaindeksować i odpowiednio oceniać strony, które realnie generowały przychód.
Sama technologia nie jest problemem. Narzędzia takie jak Lovable, v0 i Bolt potrafią wygenerować funkcjonalny, dobrze uporządkowany kod. Problem zaczyna się przy przekazaniu projektu do wdrożenia. Kreatory stron AI nie przenoszą twoich tagów canonical, map przekierowań, struktury linkowania wewnętrznego ani sygnałów EEAT. To właśnie te niewidoczne elementy utrzymują pozycje twoich stron. Jeśli je zgubisz, to w praktyce uruchamiasz zupełnie nową witrynę bez autorytetu, który budowałeś latami.
To schemat działania, którego używam przy migracjach wspieranych przez AI. Gdy trzymamy się procesu, spadki ruchu zostają poniżej 5%. Gdy zespoły pomijają kroki, średni spadek w branży kręci się w okolicach 40%.
Zanim choćby jeden akapit wygenerowany przez AI trafi na produkcję, zrób szczegółowy zrzut stanu strony, którą zaraz zmienisz. To nie jest opcjonalne -- to twoja grupa kontrolna, dzięki której udowodnisz wzrost ruchu albo odpowiednio wcześnie wyłapiesz tąpnięcie, żeby dało się wycofać zmiany.


| Źródło danych | Plik do eksportu | Kluczowe kolumny |
|---|---|---|
| GSC | query-performance.csv |
URL, zapytanie, pozycja, kliknięcia, wyświetlenia |
| Ahrefs/Semrush | backlinks_export.csv |
URL, domeny odsyłające, DR/DA, wartość ruchu |
| Crawler | crawl_all_urls.csv |
URL, status, canonical, inlinks, title, meta |
| PageSpeed API | core_web_vitals.csv |
URL, LCP, INP, CLS, device |
Trzymaj to w folderze z datą. To jest twoje zdjęcie „przed”.
Poziomy ruchu:
Role konwersyjne:
Dodaj do głównego arkusza kolumny traffic_tier i conversion_role. Jedna szybka tabela przestawna pokaże ci, których URL-i absolutnie nie możesz zepsuć, a które mogą posłużyć jako niskiego ryzyka poligon testowy dla AI.
(Mała dygresja: u jednego klienta 73% przychodu organicznego pochodziło z zaledwie 8 stron. Tych 8 stron w ogóle nie dotykało AI, dopóki Fale 1 i 2 nie potwierdziły, że proces działa na stronach o niskiej wartości. Ta powściągliwość uratowała ich przed bardzo drogą pomyłką.)
Najgorsze historie o migracjach z AI zaczynają się od zdania: „Opublikowaliśmy 5000 nowych stron i skanibalizowaliśmy własne pozycje”. Zmapuj każdy URL, jego intencję i nakładanie się z innymi stronami, zanim AI zacznie cokolwiek pisać.
| Sygnał | Narzędzie / metoda | Próg |
|---|---|---|
| Prawie zduplikowane akapity | Screaming Frog > Content > Similarity | Similarity 90%+ |
| Niska liczba słów | Formuła w arkuszu na kolumnie word_count | Poniżej 300 słów |
| Strony zombie | Połączenie danych z GSC + Ahrefs | 0 kliknięć, 0 linków przez 6 miesięcy |
| Decyzja | Kryteria | Działanie |
|---|---|---|
| Zachować bez zmian | Ruch Tier-1, unikalne backlinki, mocne EEAT | Tylko ręczna redakcja; bez generowania przez AI |
| Przepisać (z człowiekiem za sterami) | Tier-1/2, krytyczne dla EEAT (finanse, zdrowie) | Wersja robocza od człowieka z pomocą AI maksymalnie do 20%, porządny fact-check |
| Zastąpić treścią z AI | Ruch Tier-3, brak backlinków, thin content | Pełna wersja robocza z AI, 20% nadpisania przez człowieka, kontrola jakości |
| Scalić i przekierować | Zduplikowana intencja, nakładające się strony | Połącz w jeden URL; słabsze strony przekieruj 301 |
| Usunąć | Strony zombie, brak linków, brak konwersji | Usuń; zwróć 410 Gone; wyślij zaktualizowaną sitemapę |
/ai-preview/), które odwzorowuje hierarchię URL-i z wersji live. Nigdy nie używaj subdomeny -- subdomeny rozbijają autorytet./pricing/ na produkcji powinno być /ai-preview/pricing/ na stage. Gdy przyjdzie moment przełączenia, zamieniasz rooty zamiast przepisywać linki.| Parametr | Rekomendowane ustawienie | Dlaczego |
|---|---|---|
| Model | GPT-4o or Claude 3 Sonnet | Lepsze rozumowanie ogranicza błędy faktograficzne |
| Temperature | 0.4-0.6 | Bardziej zróżnicowany ton bez skoków halucynacji |
| Human Overwrite | Co najmniej 20% widocznego tekstu | Podnosi entropię dla detektorów AI i wnosi realną ekspertyzę |
| Fact-Check Pass | Cytowania inline do źródeł pierwotnych | Spełnia EEAT; zmniejsza ryzyko dezinformacji |
| EEAT Citations | 2+ cytaty ekspertów albo statystyki na każde 1,000 słów | Wzmacnia sygnały zaufania dla zapytań YMYL |
Proces wygląda tak: generowanie, przepuszczenie przez Grammarly, nadpisanie przez człowieka, fact-check, test detektorem -- wszystko na środowisku testowym.
Próg dla detektora AI: Uruchom GPTZero albo Sapling. Celuj w mniej niż 35% „likely AI”. Wszystko powyżej wraca do mocniejszej redakcji przez człowieka.
Checklista on-page: H1 zawiera główne słowo kluczowe (poniżej 60 znaków), meta title i meta description są unikalne oraz zoptymalizowane, co najmniej 8 kontekstowych linków wewnętrznych z różnorodnymi anchorami, schema markup przechodzi walidację w teście Rich Results.
Tylko strony, które przejdą wszystkie bramki kontroli jakości, trafiają ze środowiska testowego na wersję live.
| Fala | Pula stron | Logika wyboru | Cel | Okno |
|---|---|---|---|---|
| Fala 1 | 10% stron o niskiej wartości | URL-e Tier-3 z mniej niż 1% kliknięć, bez wartości z backlinków | Zweryfikować rendering, schema i wyniki detektorów AI | 7 dni |
| Fala 2 | 10% stron o średniej wartości | Informacyjne wpisy Tier-2, umiarkowany ruch | Potwierdzić stabilność pozycji na URL-ach z większą stawką | 14 dni |
| Fala 3 | 80% pozostałych stron | Strony sprzedażowe + reszta zasobów | Pełna migracja po tym, jak Fale 1-2 pokażą mniej niż 5% odchylenia | 30-45 dni |
Gdzie tylko się da, rób split-testy: zachowaj oryginalny HTML w wariancie z query parametrem (?v=control) i kieruj tam 10% ruchu przez server-side A/B routing.
Dashboardy w czasie rzeczywistym:
Progi alertów automatycznych:
Protokół rollbacku: Ponownie włącz stary HTML przez parametr kontrolny, przełącz 302 z powrotem na oryginalny plik, wyślij inspekcję URL w GSC, żeby wymusić ponowny crawl, i zrób audyt przyczyny źródłowej.
(Jeszcze jedna dygresja: miałem klienta, który spanikował, gdy strony z Fali 1 pokazały 12% spadku ruchu po czterech dniach. Sprawdziliśmy to -- okazało się, że spadek był sezonowy i idealnie pokrywał się z tym samym wzorcem z poprzedniego roku. Strony AI działały identycznie jak oryginały. Wniosek: zawsze porównuj do tego samego okresu rok do roku, a nie tylko do zeszłego tygodnia.)
Nie automatycznie. Google karze niskiej jakości albo wprowadzające w błąd treści niezależnie od tego, kto je napisał. Ryzyko polega na publikowaniu mdłego, niskoentropijnego tekstu z AI, który nie przechodzi kontroli EEAT. Rozwiązanie: co najmniej 20% nadpisania przez człowieka, cytowania i wyniki prawdopodobieństwa AI poniżej 35%.
Nie rób tego. Subdomeny dzielą link equity i zmuszają Google do ponownego uczenia się sygnałów zaufania. Migruj w obrębie subfolderów i zachowaj identyczne slugi URL-i.
Wymuś etap fact-checku: każ modelowi dołączać URL-e, a potem niech człowiek zweryfikuje każdy link. Każde twierdzenie, którego nie da się podeprzeć źródłem, trzeba przepisać albo usunąć.
Wycofaj zmiany, jeśli spadek przekracza 15% przez więcej niż siedem kolejnych dni albo jeśli konwersje spadną o więcej niż 10%. Przywróć stary HTML, sprawdź logi i napraw problem przed ponownym wdrożeniem.
Co miesiąc. Aktualizuj ton marki, nowe statystyki i wzorce pomagające ograniczyć wykrywalność. Stare prompty z czasem znowu wprowadzają powtarzalność, obniżają entropię i zwiększają ryzyko wykrycia.

no credit card required
No related articles found.