Widziałem, jak trzy strony klientów dostały karę od Google. Za każdym razem założyciel mówił: „Nie wiedziałem”. I za każdym razem mówił prawdę — zatrudnili kogoś do „robienia SEO” i zaufali całemu procesowi, nawet nie pytając, co ten proces właściwie obejmuje.
Jedna strona straciła 80% ruchu z dnia na dzień, kiedy Google wykrył, że jej profil linków zwrotnych opierał się na PBN (prywatnej sieci blogów). Założyciel nie miał pojęcia, czym w ogóle jest PBN. Agencja ani razu o tym nie wspomniała. Inna strona zniknęła z wyników na dwa tygodnie, bo deweloper wypchnął aktualizację ze środowiska testowego z ustawionym noindex i nikt tego nie zauważył. Trzecia mocno oberwała po głównej aktualizacji algorytmu po opublikowaniu 200 artykułów wygenerowanych przez AI bez żadnej ludzkiej redakcji — zespół contentowy uznał, że „treści AI” to strategia, a nie narzędzie, które ma tę strategię wspierać.
To nie były firmy działające w złej wierze. Po prostu zajęte zespoły, które podejmowały decyzje brzmiące rozsądnie, nie rozumiejąc ryzyka. Ten artykuł jest dla nich — i dla każdego, kto chce zrozumieć, gdzie przebiegają granice w 2026 roku, bo część z tych granic ostatnio się przesunęła.
| Kategoria | Definicja | Przykłady | Ryzyko |
|---|---|---|---|
| White Hat | W pełni zgodne z wytycznymi Google. Buduje pozycje dzięki jakości i technicznej solidności. | Oryginalne badania, uczciwe publikacje gościnne, dane strukturalne, szybkość strony, dostępność | Żadne. Tego właśnie chce Google. |
| Gray Hat | Nie jest wprost zakazane, ale testuje granice. Egzekwowanie zasad bywa niespójne. | Treści AI z lekką edycją, wymiana linków, przekierowania z wygasłych domen, agresywny anchor text | Średnie. To, co dziś jest szare, jutro może być czarne. |
| Black Hat | Bezpośrednio narusza polityki antyspamowe. Manipuluje pozycjami przez wprowadzanie w błąd. | Keyword stuffing, cloaking, linki z PBN, ukryty tekst, doorway pages, parasite SEO | Wysokie. Ręczne działanie, usunięcie z indeksu albo kara algorytmiczna. |
Granica między szarym a czarnym SEO przesuwa się bez przerwy. Wymiana linków była standardową praktyką w 2015 roku. Dziś polityki antyspamowe Google wprost wymieniają „nadmierną wymianę linków” jako schemat linkowy. Właśnie dlatego nie polecam nikomu taktyk gray hat — budujesz na gruncie, który przy kolejnej głównej aktualizacji może ci się po prostu osunąć spod nóg.


Każda taktyka black hat ma datę ważności. Na podstawie przypadków, które obserwowałem bezpośrednio, i udokumentowanych przykładów z branży mniej więcej tak długo to działa:
| Taktyka | Typowa żywotność | Metoda wykrycia | Kara |
|---|---|---|---|
| Keyword stuffing | Od kilku dni do kilku tygodni | Algorytmiczna (SpamBrain) | Spadek pozycji, ręczne działanie |
| Ukryty tekst/linki | 14 dni (udokumentowany przypadek z 2025 roku) | Ręczna weryfikacja + algorytm | Ręczne działanie |
| Linki z PBN | 3–12 miesięcy | Analiza wzorców linkowania | Ręczne działanie, nawet do 80% utraty ruchu |
| Cloaking | Od kilku tygodni do kilku miesięcy | Porównanie treści dla Googlebot i użytkownika | Usunięcie z indeksu |
| Parasite SEO | Miesiące (główny cel w latach 2025–2026) | Ręczna weryfikacja, polityka nadużywania reputacji witryny | Ręczne działanie na domenie hosta |
| Skalowane treści AI (bez redakcji) | 1–3 miesiące | Główne aktualizacje algorytmu, quality raters | Spadek widoczności całej witryny |
| Kupowanie linków | Od miesięcy do lat (duży rozstrzał) | Analiza wzorców linkowania, zgłoszenia spamu | Ręczne działanie (po swoim przypadku Expedia zanotowała spadek kursu akcji o 4.5%) |
Przypadek, który najbardziej utkwił mi w głowie: Rap Genius stracił 700,000 unikalnych użytkowników dziennie po wykryciu ich schematu linkowego. Wiedzieli, że to ryzykowne. I zrobili to mimo wszystko. Powrót trwał miesiącami. Prawdziwy koszt nie polegał tylko na samej karze — chodziło o miesiące spędzone na odrabianiu strat zamiast na wzroście. Każdy dzień w trybie naprawczym to dzień, w którym konkurencja odjeżdża ci jeszcze bardziej.
To pytanie dostaję najczęściej, więc powiem to najjaśniej, jak się da, opierając się na opublikowanych wytycznych Google i na tym, co obserwuję na stronach, które monitorujemy.
Nie, Google nie karze treści tylko dlatego, że powstały przy użyciu narzędzi AI. To stanowisko jest spójne od aktualizacji wytycznych z marca 2024 roku i nic się tu nie zmieniło. Google interesuje to, czy treść jest pomocna, a nie to, jak została stworzona.
To, co Google karze, to „scaled content abuse” — masową produkcję treści zaprojektowanej pod manipulowanie pozycjami, niezależnie od tego, czy pisał ją człowiek, czy maszyna. Na podstawie naszych obserwacji granica wygląda tak:
| Podejście | Stanowisko Google | Ryzyko |
|---|---|---|
| Pisanie wspierane przez AI z ludzką redakcją i eksperckim wkładem | W pełni w porządku. To po prostu użycie narzędzia. | Żadne |
| Pierwsza wersja przygotowana przez AI, a potem gruntownie przeredagowana przez eksperta w danej dziedzinie | W porządku. Końcowy materiał zawiera ludzką ekspertyzę. | Żadne |
| Treść wygenerowana przez AI i opublikowana po lekkiej korekcie | Szara strefa. Zależy od jakości i unikalności. | Niskie do średniego |
| Masowo publikowane treści AI bez ludzkiej weryfikacji | Scaled content abuse. Narusza polityki antyspamowe. | Wysokie. Spadek widoczności całej witryny. |
| Treści AI udające doświadczenie z pierwszej ręki, którego autor nie ma | Wprowadzające w błąd. Nie spełnia E-E-A-T. | Średnie do wysokiego |
Jak to wygląda u mnie? Narzędzi AI używam codziennie do researchu, konspektów i pierwszych wersji. Wszystko, co publikuję, przechodzi potem przez moją redakcję: dodaję własne doświadczenia, usuwam ogólnikowe zapychacze i sprawdzam fakty. AI daje mi 60% oszczędności czasu. Ostatnie 40% — czyli ta część, która sprawia, że treść jest naprawdę użyteczna — to już praca człowieka. Jeśli chcesz sprawdzić, jak brzmi twój tekst, wypróbuj nasz AI content detector.
Mała dygresja o głównej aktualizacji algorytmu z marca 2026 roku: uderzyła w strony, które skalowały treści niskiej jakości, a wiele z nich akurat korzystało z AI. Ale korelacja to nie przyczynowość. Dostały po głowie dlatego, że publikowały słabe treści na masową skalę, a nie dlatego, że były wygenerowane przez AI. Strony używające AI przy sensownym nadzorze redakcyjnym przeszły tę aktualizację bez problemu. Wiem to, bo kilku naszych użytkowników dokładnie do tej grupy należy i ich ruch pozostał stabilny przez cały update.

Powrót jest bolesny, ale możliwy. Średni czas wyjścia z ręcznego działania to mniej więcej 67 dni. Kary algorytmiczne mogą zająć 4–6 miesięcy, bo musisz czekać, aż kolejna główna aktualizacja algorytmu ponownie oceni twoją stronę.
Jest jedna historia powrotu, do której często wracam: pewna strona straciła 6,000 pozycji na słowa kluczowe z dnia na dzień przez karę algorytmiczną. Po systematycznym naprawieniu problemów jakościowych i zrzeczeniu się toksycznych linków nie tylko odzyskała ruch — ruch się potroił, a przychód podwoił. Kara zmusiła ich do naprawienia problemów, które ignorowali od lat. Czasem taka kara jest pobudką, której potrzebowałeś. Tyle że bardzo drogą.
Nic z tego nie brzmi ekscytująco. Ale wszystko się kumuluje:
Tak. Negative SEO (czyli sytuacja, w której konkurencja buduje spamerskie linki do twojej strony) istnieje, ale zdarza się rzadko. Jeśli widzisz nagły napływ spamerskich backlinków, których nie budowałeś, użyj narzędzia disavow od Google. Sprawdź też, czy poprzednia agencja SEO nie stosowała taktyk, o których nie wiedziałeś — widziałem to przy linkach z PBN, o których klient nie miał pojęcia.
Sprawdź GSC pod kątem ręcznych działań. Jeśli nic tam nie ma, porównaj moment spadku ruchu z datami znanych aktualizacji Google. Jeśli spadek pokrywa się z aktualizacją, problem jest algorytmiczny. Jeśli spadek jest stopniowy i bez wyraźnego wyzwalacza, możliwe, że to po prostu konkurencja cię wypchnęła, a nie żadna kara.
Nie do celów SEO. Do reklamy i ruchu — tak, o ile mają atrybuty rel="nofollow" albo rel="sponsored". Polityka Google jest tu całkiem jasna.
Szybciej niż kiedykolwiek. SpamBrain potrafi wykrywać wzorce spamu linkowego, cloaking i manipulacyjne treści w ciągu tygodni. Udokumentowany przypadek ukrytego tekstu wykrytego w 14 dni nie jest niczym niezwykłym. Tempo wykrywania tylko wzrosło po aktualizacjach z marca 2026 roku.
Tylko jeśli widzisz wyraźnie toksyczne linki (oczywiste domeny spamowe, ślady PBN, niepowiązane tematycznie strony obcojęzyczne z anchorami exact match). Nie rób disavow zbyt agresywnie — Google zwykle samo całkiem dobrze ignoruje spamowe linki. Zbyt szerokie zrzekanie się linków może zaszkodzić, bo odetniesz też te, które faktycznie pomagały.
no credit card required
No related articles found.