Dlaczego Twoje strony przestają się pozycjonować po 6 miesiącach (i jak to naprawić)

Vadim Kravcenko
Vadim Kravcenko
· 16 min read

Zaktualizowano: marzec 2026

TL;DR: Większość stron osiąga maksimum po 3–6 miesiącach, a potem zaczyna spadać. Oto jak to wyłapać, co z tym zrobić i kiedy pozwolić stronie „umrzeć”.

Post, który stracił 80% ruchu

Google Search Console — strona o koncie pokazująca funkcje monitorowania wydajności
Google Search Console — pierwsza linia obrony przed degradacją treści. Źródło: Google

W marcu 2025 r. nasz poradnik o linkowaniu wewnętrznym dostawał z Google ok. 400 kliknięć miesięcznie. Od momentu publikacji rósł stabilnie. Trafienie w dobre słowa kluczowe, przyzwoite linki zwrotne, kompletne ujęcie tematu. Tego typu wpis pisze się i potem o nim zapomina — bo działa.

W lipcu 2025 r. miał już tylko 80 kliknięć.

Nie zorientowałem się przez dwa miesiące. Tak działa degradacja treści — nie wysyła powiadomienia. Nie ma alertu w stylu: „hej, ten post, na który poświęciłeś 30 godzin, właśnie stał się nieaktualny”. Po prostu przestajesz dostawać ruch, a jeśli nie śledzisz wyników, to dowiadujesz się zbyt późno, żeby sensownie „odratować” sytuację.

Kiedy w końcu sprawdziłem dane w Search Console, układ był wręcz podręcznikowy. Wrażenia utrzymywały się do kwietnia, potem zaczęły spadać w maju. Kliknięcia pojawiły się dwa tygodnie później. W czerwcu średnia pozycja zsunęła się z pierwszej strony na drugą i od momentu, gdy jesteś na stronie drugiej, w praktyce możesz nie istnieć.

To, co się stało, nie było skomplikowane. Dwóch konkurentów opublikowało w kwietniu lepsze, bardziej aktualne poradniki. Jeden z nich miał interaktywne przykłady. Nasz wpis nagle wyglądał na przestarzały — nie dlatego, że był „błędny”, tylko dlatego, że przestał być najlepszym wynikiem. Google zauważyło to wcześniej niż my.

W sierpniu odświeżyliśmy wpis. Zaktualizowaliśmy przykłady, dodaliśmy nowe dane i przebudowaliśmy dwie sekcje, które zdążyły się rozrosnąć. Prace zajęły ok. 12 godzin. Do października wróciliśmy do ok. 300 kliknięć miesięcznie — nie do pierwotnych 400, ale wystarczająco. (Uwaga: straciliśmy też featured snippet, który wcześniej mieliśmy, i nigdy nie udało nam się go odzyskać. Częściowy powrót to realistyczny scenariusz.)

Właśnie ta sytuacja sprawiła, że dodałem wykrywanie degradacji treści do SEOJuice. Nie dlatego, że to „seksowna” funkcja — nie jest — tylko dlatego, że wciąż trafiałem na wpisy, które cicho umierały miesiącami, podczas gdy ja skupiałem się na pisaniu nowych.

Ten poradnik to wszystko, czego nauczyłem się o degradacji treści od tamtej pory. Część pochodzi z naszych danych, część z opublikowanych badań, część z bolesnych prób i błędów. Powiem ci, co działa, jak naprawdę wyglądają wskaźniki odzysku oraz które z naszych stron nie dało się uratować, mimo że próbowaliśmy.

Szczelina po 6 miesiącach (i dlaczego do niej dochodzi)

To wzorzec, który widzę regularnie: publikujesz wpis, indeksuje się, rośnie przez 2–4 miesiące, bo Google testuje go w różnych pozycjach, osiąga maksimum mniej więcej między 3. a 6. miesiącem, a potem zaczyna zjeżdżać w dół. Czasem powoli, czasem jak po zboczu.

Oś 6 miesięcy opieram na naszych danych oraz na tym, co obserwuję na stronach, które monitorujemy. „U ciebie może być inaczej” — jedne branże poruszają się szybciej, inne wolniej. Ale ogólny przebieg jest na tyle spójny, że Ross Hudgens z Siege Media nazywa treść „deprecjonującym się aktywem”, a ich badania wykazały, że 65,8% marketerów treści oczekuje spadku ruchu w czasie bez aktywnej obsługi.

Za ten spadek odpowiadają trzy czynniki i zwykle działają razem, a nie osobno.

Pierwszy to konkurencja. Dziś twój wpis jest na pozycji #3, bo znajduje się wśród najlepszych wyników, które Google potrafi wyświetlić. Ale inni też piszą o tym samym temacie i niektórzy zrobią to lepiej — bardziej aktualne dane, lepsze przykłady, czystsza struktura. Nie tracisz pozycji dlatego, że twoja treść „stała się gorsza”. Tracisz je, bo zmieniła się relatywna jakość w wynikach.

Drugi to przestarzałość. Informacje się starzeją. Statystyki z 2023 r. wyglądają na stare w 2025 r. Zrzuty ekranu narzędzi pokazują nieaktualne interfejsy. Rekomendacje oparte na aktualizacji algorytmu sprzed roku robią się niepełne, gdy przychodzi kolejna aktualizacja. Andy Crestodina z Orbit Media obserwuje to od lat, a jego badania konsekwentnie pokazują, że aktualizacje treści są 2,8 razy częstsze w osiąganiu mocnych wyników w content marketingu niż w przypadku osób publikujących wyłącznie nowe materiały (z corocznego badania blogowania Orbit Media, które mierzy ten wskaźnik od 2014 r.).

Trzeci — i to ten, który większość osób pomija — to zmiana intencji. Fraza zapytania może być taka sama, ale to, co ludzie mają na myśli, szukając, już się zmienia. „Najlepsze narzędzie do zarządzania projektami” w 2023 r. oznaczało porównania Asany i Monday.com. W 2025 r. osoby wpisujące tę frazę coraz częściej chcą narzędzi natywnie „AI”. Wyniki Google przesuwają się, żeby dopasować do tego, a twój artykuł o starej „klasie” rozwiązań spada.

HubSpot ustalił, że 92% ich miesięcznych leadów z bloga pochodzi ze starych wpisów, co mówi ci dwie rzeczy: stara treść bywa niezwykle cenna, jeśli jest utrzymywana, ale równie krucha, gdy się ją zaniedba. Opisali też wzrost ruchu o 106% dzięki systematycznemu odświeżaniu istniejących treści — nie przez pisanie czegokolwiek nowego, tylko przez aktualizowanie tego, co już było. (To dane z szeroko cytowanej analizy HubSpot z 2015 r. — stare liczby, ale trend nadal się utrzymuje.)

(Dygresja: myślę, że AI Overviews przyspiesza wszystkie te trzy zjawiska naraz. Do tego wrócę później.)

Jak wykryć degradację zanim zabije twoją stronę

SEOJuice — strona z automatycznym monitorowaniem SEO
SEOJuice — automatyczne monitorowanie wychwytuje sygnały degradacji, zanim staną się nagłymi problemami. Źródło: SEOJuice

To fragment, który ma największe znaczenie. Cała reszta tego artykułu to kontekst — to część, którą możesz wdrożyć już dziś.

Kluczowa zasada jest prosta: musisz porównać aktualną wydajność strony z jej własnym historycznym punktem odniesienia. Nie do jakiegoś abstrakcyjnego benchmarku. Nie do innych stron. Tylko do niej samej sprzed 3–6 miesięcy.

Progi, których używamy w SEOJuice: spadek kliknięć o 30% w ujęciu kroczącym w oknie 3 miesięcy, przy minimalnym punkcie odniesienia 20 kliknięć na miesiąc. Minimalny próg ma znaczenie — strona, która spada z 5 kliknięć na 2, nie ma „degradacji”, tylko szum. Potrzebujesz odpowiedniej ilości danych, żeby odróżnić sygnał od wariancji.

(Ten 30-procentowy próg to to, co stosujemy my. Niektórzy używają 20%. Nie ma magicznej liczby. Ale 30% jest na tyle agresywne, by wychwycić realne problemy bez zalewania cię false positive przez sezonowe wahania.)

Oto trzy sposoby wykrywania degradacji, ułożone od najmniejszego do największego wysiłku. Użyłem wszystkich — podsumowanie poniżej:

Metoda Koszt Czas konfiguracji Wykrywa degradację w Odsetek false positive
Porównanie dat w GSC Darmowe 0 minut Miesiące (zależnie od tego, kiedy sprawdzasz) Niski (ręczne filtrowanie)
Alerty w analityce Darmowe 1–2 godziny Tygodnie Wysoki (wymaga strojenia)
Automatyczne monitorowanie Płatne 15 minut Od dni do tygodni Niski (inteligentne punkty odniesienia)

Metoda 1: Porównanie dat w Google Search Console (darmowe, ręczne)

Otwórz Search Console. Wejdź w Performance. Kliknij „Date” i wybierz „Compare”. Ustaw porównanie ostatnich 3 miesięcy do poprzednich 3 miesięcy. Filtruj po stronie. Sortuj po największym spadku kliknięć.

To zajmuje ok. 15 minut i daje jasny obraz. Ograniczenie jest prozaiczne: to proces ręczny — musisz o nim pamiętać, a większość osób nie. Robiłem to co miesiąc przez około cztery miesiące, zanim przestałem, bo wpadło mi więcej obowiązków. I to dokładnie ten problem.

Na co patrzeć: strony, gdzie kliknięcia spadły o więcej niż 30% ORAZ spadły też wrażenia (nie tylko zmienił się CTR). Jeśli wrażenia są stabilne, ale kliknięcia spadają, to problem CTR, a nie degradacji — inna przyczyna, inne rozwiązanie.

(Wskazówka dla pro: eksportuj dane do CSV i sortuj po absolutnej zmianie kliknięć, nie po procentowej. Strona, która spada z 10 kliknięć do 3, ma spadek o 70%, ale pewnie nie warto twojego czasu. Strona, która spada z 500 do 350, ma tylko 30%, ale to 150 realnych kliknięć traconych co miesiąc.)

Metoda 2: Monitorowanie trendów w analityce (automatyczne, darmowe)

Jeśli korzystasz z GA4 albo innej platformy analitycznej, możesz skonfigurować własne alerty na spadki ruchu. Utwórz alert, który odpala się, gdy organiczne sesje dla konkretnej grupy stron spadają poniżej progu w porównaniu do poprzedniego okresu.

To lepsze niż ręczne sprawdzanie, bo jest automatyczne, ale konfiguracja bywa upierdliwa, a alerty często bywają głośne. Dostaniesz false positive od świąt, od sezonowych treści i od jednorazowych pików ruchu, które sztucznie podniosły bazę odniesienia. Licz się z tym, że będziesz musiał poświęcić czas na dostrojenie progów pod twoją stronę.

Przewaga nad Search Console polega też na tym, że możesz śledzić zachowanie po kliknięciu. Strona, która traci pozycje w rankingu i ma rosnący współczynnik odrzuceń, jest mocniejszym sygnałem degradacji niż ta, która po prostu traci pozycje. Jeśli ktoś wchodzi na twoją stronę i od razu wraca do SERP, to działa sygnał jakości Google — tylko że w praktyce działa przeciwko tobie, w czasie rzeczywistym.

(Uczciwie: irytowało mnie strojenie alertów niestandardowych w GA4. Interfejs zmieniał się trzy razy od czasu, gdy je skonfigurowałem. Jeśli masz większą cierpliwość do UX Google niż ja, to zadziała.)

(Uwaga: te progi sprawdziły się u nas, ale każda strona jest inna. Serwis newsowy może notorycznie widzieć 30-procentowe spadki przez sezonowość. Blog SaaS „wiecznie aktualny” nie powinien. Skalibruj do własnej bazy odniesienia.)

Metoda 3: Narzędzia do automatycznego monitorowania

To, co wdrożyliśmy w SEOJuice, oraz co w różnych formach oferuje kilka innych narzędzi. Idea jest prosta: zautomatyzować porównanie z Search Console, zastosować inteligentne bazy odniesienia i pokazać tylko te strony, które naprawdę wymagają uwagi.

Nasze podejście łączy się z twoimi danymi z Google Search Console, liczy kroczące punkty odniesienia osobno dla każdej strony i oznacza te, które przekraczają próg 30% spadku, mając przynajmniej 20 kliknięć ruchu bazowego. Uwzględniamy też zmiany pozycji i trendy w wrażeniach, żeby odróżnić „ta strona się degraduje” od „ta strona miała dziwny miesiąc”.

Uczciwa przewaga automatycznego monitorowania: degradację wykrywa się w tygodniach, a nie w miesiącach. Nasz poradnik o linkowaniu wewnętrznym dostałby flagę w maju zamiast w lipcu, gdybyśmy mieli uruchomione wykrywanie. Te dwa miesiące mają znaczenie — im dłużej degradacja jest bez reakcji, tym trudniejszy staje się powrót. Strona, która straciła 20% ruchu, odzyskuje się dużo łatwiej niż taka, która straciła 80%.

Uczciwe ograniczenie: żadne narzędzie nie powie ci, dlaczego strona się degraduje. Może ci powiedzieć, że się degraduje, i pokazać metryki, ale diagnoza nadal wymaga człowieka: spojrzenia na krajobraz konkurencji, sprawdzenia zmiany intencji i przeczytania właściwej treści „świeżymi oczami”.

Jak unikać false positive

Jedna rzecz, której nauczyłem się na własnych błędach: nie każdy spadek ruchu to degradacja. Zanim zaczniesz odświeżać treść, wyklucz:

  • Wzorce sezonowe. Jeśli napisałeś „checklistę na sezon podatkowy” w styczniu i ruch spada w maju, to nie jest degradacja. Dla treści sezonowych porównuj rok do roku, a nie miesiąc do miesiąca.
  • Problemy techniczne. Sprawdź, czy strona nie została przypadkowo zindeksowana jako noindex, czy wysypała się mapa strony (sitemap) albo czy aktualizacja CMS zmieniła adres URL. Widziałem spadki ruchu, które wyglądały jak degradacja, ale okazało się, że do URL-a dodano trailing slash po aktualizacji WordPressa.
  • Aktualizacje algorytmu. Jeśli 30 stron spadło w tym samym tygodniu, to prawdopodobnie aktualizacja core, a nie degradacja treści. Reakcja jest inna — pojedyncze odświeżenia stron nie naprawią szerszej oceny jakości całego serwisu.
  • Wygasanie ruchu wirusowego. Jeśli strona została udostępniona na Hacker News albo Reddit i chwilowo wystrzeliła, to powrót „do normy” nie jest degradacją. Sprawdź ruch referral, żeby to potwierdzić.

Co robić, gdy zauważysz degradację

Gdy już zidentyfikujesz stronę, która się degraduje, nie zaczynaj tylko edycji. Najpierw ustal, co się zmieniło:

  • Wyszukaj docelowe słowo kluczowe i zobacz, co rankuje teraz. Czy skład SERP się zmienił? Czy topowe wyniki są fundamentalnie inne niż te sprzed 6 miesięcy?
  • Sprawdź, czy twoja treść jest faktograficznie nieaktualna. Przestarzałe statystyki, wycofane narzędzia, zmienione best practices.
  • Przejrzyj sekcje „People Also Ask”. Czy powiązane pytania się przesunęły? To sygnał zmiany intencji.
  • Sprawdź, czy straciłeś linki zwrotne do strony. Użyj narzędzia do backlinków, które wybierzesz.

Diagnoza determinuje reakcję. A to prowadzi nas do ram decyzyjnych.

Decyzja: odświeżyć, przepisać, przekierować czy pozwolić jej umrzeć

Nie każda degradowana strona zasługuje na ratunek. To trudna lekcja dla mnie — spędziłem 15 godzin na przepisaniu wpisu o checklistach do audytu SEO, który nigdy nie wrócił do formy, bo cała intencja zapytania przesunęła się w stronę osób chcących narzędzi automatyzujących, a nie ręcznych checklist. Ten czas lepiej byłoby zainwestować w nową treść.

Cztery opcje, a jedna z nich — tej, której większość poradników content marketingu nigdy nie wspomina — to zrobienie niczego.

Działanie Kiedy użyć Nakład pracy Oczekiwany odzysk
Odśwież Treść jest poprawna strukturalnie, ale ma nieaktualne dane, stare zrzuty ekranu lub przestarzałe przykłady 4–8 godzin 60–80% szczytowego ruchu
Przepisz Temat nadal ma wartość, ale twój kąt, struktura lub głębokość nie są już konkurencyjne 15–25 godzin 80–120% szczytu (czasem więcej niż oryginał)
Przekieruj Masz lepszą, nowszą stronę o tym samym temacie albo konsolidujesz „cienką” treść 1–2 godziny Przenosi 60–80% wartości linków na stronę docelową
Pozwól umrzeć Intencja zapytania całkowicie odeszła od tego, co oferujesz, albo temat przestał wspierać twoje cele biznesowe 0 godzin N/D — odzyskaj czas na lepsze inwestycje

Pytania diagnostyczne, w tej kolejności:

  1. Czy temat nadal jest istotny dla twojego biznesu? Jeśli odsunąłeś się od tego obszaru, pozwól mu umrzeć albo przekieruj na coś aktualnego.
  2. Czy zmieniła się intencja wyszukiwania? Jeśli SERP pokazuje teraz kompletnie inny typ treści (narzędzia zamiast poradników, wideo zamiast artykułów), odświeżenie nie pomoże. Musisz przepisać treść, żeby dopasować się do nowej intencji, albo odpuścić.
  3. Czy podstawowa struktura nadal trzyma się kupy? Jeśli tak — odśwież. Jeśli cały argument lub framework wymaga przebudowy — przepisz.
  4. Czy masz inną stronę, która obejmuje to lepiej? Jeśli tak — przekieruj i skonsoliduj.

Jedno krytyczne ostrzeżenie od Roxany Stingu, niezależnej konsultantki SEO, która wcześniej prowadziła strategię indeksowania w Alamy: nie aktualizuj tylko daty publikacji bez realnych zmian w treści. Google potrafi wykryć ten schemat, a to niszczy sygnały zaufania. Jeśli już aktualizujesz wpis, zaktualizuj go naprawdę — nowe dane, zrewidowane rekomendacje, lepsze przykłady. Zmiana daty powinna odzwierciedlać faktyczną pracę, a nie kosmetyczny trik.

Plan odzysku na 90 dni

Odzysk nie jest natychmiastowy. Ludzie stale to lekceważają — aktualizują wpis w poniedziałek i oczekują efektu do piątku. Poniżej masz realistyczną oś czasu na podstawie 12 blogowych wpisów, które odświeżaliśmy w ubiegłym roku, oraz wzorców odzysku, jakie obserwowałem na stronach, które monitorujemy. (To „dwanaście” nie jest ogromną próbą. Daję ci wzorce, które widzę, a nie statystycznie rygorystyczne dane.)

Horyzont Co robić Czego się spodziewać
Tydzień 1 Diagnoza przyczyny. Sprawdź SERP-y, przeanalizuj konkurencyjne treści, zweryfikuj problemy techniczne (indeksowanie, błędy crawl). Podejmij decyzję: odśwież/przepisz/przekieruj/odpuść. Brak zmiany ruchu. To czas na analizę.
Tygodnie 2–4 Wykonanie zmian. Aktualizuj treść, dodaj nowe sekcje, odśwież dane i przykłady. Poproś o ponowne indeksowanie w Search Console. Google ponownie przelicza/czyta w ciągu kilku dni. Przesunięcia rankingów zaczynają się pojawiać w tygodniu 3–4, zwykle chaotycznie — będziesz „odbijać” między pozycjami.
Tygodnie 5–8 Monitoruj. Nie ruszaj strony. Daj Google się „uspokoić”. Śledź wrażenia i średnią pozycję (kliknięcia zwykle opóźniają się względem zmian pozycji). Wrażenia powinny się ustabilizować albo zacząć rosnąć. Pozycja powinna się „złapać” w obrębie 5–10 miejsc, gdzie finalnie będzie lądować.
Tygodnie 8–12 Oceń. Czy strona odzyskała co najmniej 60% ruchu z piku? Jeśli tak — monitoruj kwartalnie. Jeśli nie — sprawdź, czy bardziej agresywne działanie (pełny rewrite, przekierowanie) ma sens. Końcowe efekty stają się jasne. Zwykle w tygodniu 10–12 odzysk przechodzi w plateau.

Dane o odzysku z opublikowanych badań są zachęcające, ale wymagają kontekstu. HubSpot's wzrost ruchu o 106% z odświeżania treści dotyczył całego ich portfolio blogowego i dedykowanego zespołu — mają zasoby, których większość z nas nie ma. Backlinko opisało case study pokazujące wzrost ruchu o 260,7% po aktualizacji jednego wpisu — ale to wyjątek i szkoda, że ludzie przestali traktować to jako „odstępstwo”, a zaczęli cytować jak typowy wynik. Nie licz na to. Mediana odzysku jest bliżej 40–60%. W case study od Single Grain opublikowanym przez Erica Siu podano 96% wzrostu ruchu w 6 miesięcy dzięki programowi systematycznych odświeżeń — to bardziej w stronę tego, co nazwałbym „realistycznie optymistycznym”.

Liczba, której najbardziej ufam, brzmi tak: wśród odświeżeń, które zrobiliśmy, oraz tych, które śledziłem z innych źródeł, 70–80% odświeżonych stron odzyskuje istotny ruch w 90 dni. „Istotny” — czyli co najmniej 50% ich piku.

(Uwaga: wskaźnik odzysku 70–80% oznacza, że 20–30% twoich odświeżeń nie zadziała. Zaplanuj to w budżecie. Niektóre strony po prostu nie wracają, niezależnie od tego, co zrobisz. O tym będzie dalej.)

Strony, których nie udało się uratować

Chcę być szczery w sprawie porażek, bo każdy artykuł o degradacji treści, jaki czytałem, brzmi tak, jakby odświeżanie zawsze działało. To nieprawda.

Mieliśmy wpis o checklistach do audytu SEO, który w piku dostawał ok. 250 kliknięć miesięcznie. Klasyczny schemat degradacji — wolny spadek zaczynający się mniej więcej w piątym miesiącu. Zrobiliśmy pełny rewrite. Nowa checklist, dopasowana do aktualnych best practices, do tego dodaliśmy do pobrania szablon. Pracowałem nad tym ok. 15 godzin. Po 90 dniach było 60 kliknięć. I tyle. Już nie wracało dalej. Najlepsza hipoteza: intencja zapytania przesunęła się z „daj mi checklistę” na „daj mi narzędzie, które zrobi audyt za mnie” i żadna poprawa jakości treści nie mogła konkurować z rozwiązaniami automatycznymi, które zaczęły rankować na to samo słowo kluczowe.

Drugi przypadek: wpis porównawczy dwóch konkretnych narzędzi. Oba narzędzia po publikacji znacząco zmieniły cenę i zestaw funkcji. Zaktualizowaliśmy porównanie, ale zanim to zrobiliśmy, trzy nowsze wpisy porównawcze opublikowały serwisy o większym autorytecie. W końcu przekierowaliśmy to na szerszą stronę z przeglądem narzędzi.

Trzeci — nasza checklist SEO dla Shopify — częściowo wrócił, ale utknął na poziomie ok. 60% piku. Czasem odzysk jest tylko częściowy.

Nie do końca rozumiem, dlaczego jedne strony wracają, a inne nie, nawet gdy wysiłek i podejście wyglądają podobnie. Najbardziej prawdopodobne jest, że „zabójcą” jest zmiana intencji — kiedy to, czego ludzie realnie chcą, wpisując to zapytanie, naprawdę się zmienia, żaden poziom jakości treści nie wyrówna różnicy. Ale nie mam pewności. Być może też niektóre krajobrazy konkurencji są po prostu trudniejsze do „wejścia ponownie”, gdy raz stracisz pozycję.

Praktyczny wniosek: traktuj odświeżenia treści jak inwestycje o niepewnym zwrocie, a nie jak gwarantowane naprawy. 70–80% to statystyka portfelowa — oznacza, że większość zadziała, ale pojedyncze odświeżenie może nie.

Jak AI sprawia, że degradacja postępuje szybciej

Ta sekcja ma zastrzeżenie: dane o wpływie AI na degradację treści nadal się pojawiają. Mniej ufam tym liczbom niż czemukolwiek innemu w tym artykule.

Jednak oto co widzę. AI Overviews obniża CTR dla zapytań informacyjnych, bo odpowiedzi wyciąga bezpośrednio do wyników wyszukiwania. Jeśli twoja strona była na #2 dla pytania, a Google zaczęło odpowiadać na nie na górze strony — streszczeniem generowanym przez AI — twoje kliknięcia spadają, mimo że twoja pozycja się nie zmieniła. To widać jako spadek CTR w Search Console i wygląda bardzo podobnie do tradycyjnej degradacji, mimo że mechanizm jest inny.

Badania Metehana Yesilyurta dotyczące zachowania ChatGPT, opublikowane w jego analizie z 2025 r. na LinkedIn, na temat sygnałów rankingowych ChatGPT, wykazały, że ChatGPT nadaje URL-owi wynik „świeżości” wpływający na to, czy rekomenduje źródło. Starsze treści dostają karę w rekomendacjach AI nawet wtedy, gdy informacje nadal są poprawne. Tworzy to nowy wektor degradacji, który nie istniał dwa lata temu — twoja treść może tracić pozycję w cytowaniach AI niezależnie od rankingów Google.

Co to oznacza praktycznie: cykl odświeżania staje się krótszy. Treść, która wcześniej utrzymywała konkurencyjność przez 12–18 miesięcy, może zacząć tracić grunt po 6–9 miesiącach, bo systemy AI mają uprzedzenie do „świeżości” w sposób, którego tradycyjne wyszukiwanie nie wymuszało tak mocno. (Nie wiem jeszcze, czy to działa jednolicie, czy tylko w niektórych niszach — nasze dane są głównie B2B SaaS i treści marketingowe. Strony produktowe w e-commerce mogą zachowywać się inaczej. Kierunek jest jednak czytelny.)

Jeśli produkujesz treści, które odpowiadają na pytania — czyli ten typ najbardziej narażony na AI Overviews — monitorowanie degradacji jest teraz ważniejsze niż nawet rok temu. Okno między „peak performance” a „wymaga uwagi” się kurczy.

Najczęściej zadawane pytania

Jak szybko zwykle postępuje degradacja treści?

Większość treści osiąga maksimum 3–6 miesięcy po publikacji, a potem zaczyna stopniowy spadek. Tempo zależy od niszy — szybko zmieniające się tematy, jak AI czy marketing w social mediach, mogą tracić już w ciągu tygodni, podczas gdy evergreen, np. podstawowe koncepcje biznesowe, mogą utrzymywać się przez 12–18 miesięcy. Z naszych obserwacji wynika, że przeciętnie strona zaczyna pokazywać mierzalny spadek około 6–8 miesiąca.

Czy powinienem aktualizować datę publikacji, gdy odświeżam wpis?

Tylko jeśli wprowadziłeś znaczące zmiany w treści. Roxana Stingu ostrzegała konkretnie przed aktualizowaniem dat bez realnych modyfikacji treści — Google potrafi wykryć ten wzorzec, a to osłabia zaufanie. Jeśli zaktualizowałeś statystyki, dodałeś nowe sekcje i poprawiłeś rekomendacje, to oczywiście zaktualizuj datę. Jeśli poprawiłeś dwa literówki, nie.

Jaki jest minimalny ruch, zanim zacznę się martwić degradacją?

U nas punkt odniesienia to 20 kliknięć miesięcznie. Poniżej tego dane są zbyt zaszumione, by odróżnić realną degradację od normalnej wariancji. Jeśli strona ma 5 kliknięć miesięcznie i spada do 2, to może być po prostu słabszy tydzień. Skup monitorowanie degradacji na stronach, które faktycznie dowożą istotny ruch.

Czy odświeżanie treści może pogorszyć moje pozycje?

Rzadko, ale jest to możliwe. Duże zmiany strukturalne — zwłaszcza zmiana URL, usunięcie sekcji, które przyciągały linki, albo fundamentalne przestawienie tematu — mogą spowodować przejściowe albo trwałe spadki w rankingu. Najbezpieczniej jest utrzymać identyczny URL, zachować rdzeń struktury i dodawać lub aktualizować zamiast usuwać. Jeśli robisz pełny rewrite, zostaw URL i skonfiguruj śledzenie przekierowań, żeby monitorować wpływ.

Jak priorytetyzować strony, które degraduje się jako pierwsze?

Zacznij od stron, które mają największy potencjał odzysku — wysoki szczyt ruchu w połączeniu ze znaczącym spadkiem. Strona, która spadła z 500 kliknięć do 150, jest lepszym kandydatem niż ta, która spadła z 50 do 15, mimo że procentowy spadek jest podobny. Uwzględnij też wartość biznesową: strona, która generuje konwersje, jest warta większego wysiłku w odświeżeniu niż taka, która dostarcza wyłącznie ruch informacyjny. Pokrywamy ramy priorytetyzacji w naszym poradniku do strategii odświeżania treści pod SEO.


Powiązana lektura

Degradacja treści nie jest opcjonalna — dzieje się teraz z twoimi stronami, niezależnie od tego, czy je monitorujesz, czy nie. Pytanie brzmi: czy wyłapiesz to przy spadku o 20%, gdy odzysk jest prostszy, czy przy spadku o 80%, gdy może być już za późno. SEOJuice automatycznie monitoruje twoją treść, więc nie musisz pamiętać o sprawdzaniu Search Console co miesiąc. Ale nawet jeśli używasz arkusza i przypomnienia w kalendarzu, najważniejsze jest to, żebyś patrzył na wyniki.

SEOJuice
Stay visible everywhere
Get discovered across Google and AI platforms with research-based optimizations.
Works with any CMS
Automated Internal Links
On-Page SEO Optimizations
Get Started Free

no credit card required

More articles

No related articles found.