Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →Większość artykułów o „agentic SEO”, które przeczytałem w ostatnich sześciu miesiącach, to sprzedażowe oferty przebrane za poradniki. Zaczynają się od definicji, która wrzuca do jednego worka zaplanowany skrypt i prawdziwego agenta, wspominają o dwóch–trzech narzędziach sprzedawanych przez autora, obiecują samoaktualizujący się silnik treści niewymagający nadzoru, a kończą przyciskiem rezerwacji demo. Gdy docieram do końca, wiem zazwyczaj mniej niż na początku.
Agentowy workflow SEO istnieje i warto go zbudować, ale nie w sposób, w jaki opisują to oferty vendorów. To pętla, która obserwuje, decyduje, planuje, wykonuje i weryfikuje. Największa wartość kryje się w kroku „decide”, największe ryzyko – w „execute”. Różnicę między użytecznym agentem a kryzysem wizerunkowym stanowi jedno ludzkie „zatwierdź” przed publikacją.
Od ponad roku obserwuję, jak nasze własne portfolio w SEOJuice pracuje w takiej pętli, i pomogłem kilku zespołom in-house uruchomić ich wersję. Architektura jest identyczna; narzędzia na każdym poziomie można zamieniać; najciekawsza praca dzieje się w kroku „decide”. W tym artykule omawiam pięć etapów pętli, narzędzia na każdym z nich, typowe awarie, drzewo decyzji pokazujące, kiedy agent to przerost formy nad treścią, oraz rzetelny kosztorys.
TL;DR:

Słowo „agentic” wykonało w 2026 r. sporo marketingowej roboty i trzeba je odróżnić, bo na tym rozjeżdżają się scenariusze awarii. Cron odpala tę samą komendę wg harmonogramu. Zaplanowany skrypt wykonuje sekwencję kroków i może rozgałęziać się na warunkach. Workflow w rozumieniu n8n lub Make to zaplanowany skrypt z edytorem graficznym. Żadne z nich nie jest agentem. Agent decyduje, co zrobić dalej, na podstawie tego, czego właśnie się dowiedział. Pamięta poprzednie uruchomienie, ma cel i zestaw narzędzi. Kluczowy jest loop: wyniki z tego tygodnia stają się danymi wejściowymi w kolejnym.
Test jest prosty: jeśli narzędzie w tygodniu czwartym nie może zachować się inaczej niż w pierwszym na podstawie tego, co wydarzyło się po drodze, nie jest agentem. Większość narzędzi AI-SEO, które benchmarkowałem w ostatnim kwartale, w tym część opisanych w naszym przeglądzie narzędzi AI SEO 2026, ląduje po stronie zaplanowanych skryptów. I to jest OK – byle nie płacić cen agenta za zachowanie crona.
Architektura wygląda identycznie, czy budujesz na Claude Agent SDK, OpenAI Assistants API, czy n8n. Etapy są kontraktem.
Sense. Pobranie danych: API GSC z ostatnich 7 dni i 28 dni, zrzut SERP dla śledzonych słów kluczowych (Brave Search API, Bing lub scraper typu Octoparse), analityka wewnętrzna (Plausible, GA4). Wyjściem jest migawka stanu w JSON-ie – ok. 30 KB na run przy 100 podstronach.
Decide. Ranking propozycji działań. To krok agenta, nie skryptu. Agent dostaje migawkę stanu, inwentarz stron z datami ostatniego odświeżenia i cel (ofensywny push z pozycji brzegowych, defensywne odświeżenie decay lub hybryda). Zwraca listę 1–5 kandydatów z proponowanym działaniem.
Plan. Dla najlepszego kandydata pobierz aktualne HTML strony, trzy topowe wyniki SERP na docelowe słowo, zidentyfikuj lukę. Wyjście: strukturalny szkic, co zachować, rozbudować, dodać lub usunąć.
Execute. Napisz patch: pełny rewrite, dodanie sekcji, aktualizacja meta-title, wewnętrzny link, schema itd. Wyjściem jest HTML gotowy do wdrożenia, ale jeszcze nie wdrożony. Tu stoi bramka z zatwierdzeniem.
Verify. W następnym tygodniu Sense pobiera GSC i porównuje delta pozycji strony z bazą zarejestrowaną przy Execute. Jeśli pozycja wzrosła – sukces; jeśli spadła – pokaż diff operatorowi. Verify zamyka cykl: zeszłotygodniowe wyjścia stają się wejściami Decide. To czyni pętlę agentową. Pipeline, który co tydzień powtarza te same pięć kroków bez pamięci, jest skryptem.

Nazwy w ramach etapu da się zazwyczaj wymieniać. Wyjątek to orchestrator. Claude Agent SDK ma dziś najmniej tarcia w produkcji; OpenAI Assistants API działa, ale ma mniej wbudowanych wzorców tool-call. Node agentowy w n8n obsługuje Claude’a przez integrację z Anthropic i jest najtańszą ścieżką dla fanów workflow wizualnych.
| Etap | Czego wymaga | Opcja gotowa | Opcja własna |
|---|---|---|---|
| Sense | Pobranie danych + migawka stanu | GSC API + BigQuery export; Ahrefs Site Audit | Python czytający GSC API bezpośrednio do JSON |
| Decide | Logika rankingu z pamięcią | Claude Agent SDK; OpenAI Assistants API | Własny prompt z JSON-em strukturalnym + własny store pamięci |
| Plan | Analiza luki konkurencyjnej | Surfer SEO, Frase outline, Clearscope brief | Headless browser + gpt-5.5 z prompta gap-analysis |
| Execute | Generacja patcha | gpt-5.5 z szablonem + kalibracja tonu; SEOJuice do linkowania wewn. i dekay | Ten sam gpt-5.5 + ręczna edycja |
| Verify | Śledzenie delt pozycji | AccuRanker, Wincher, Ahrefs Rank Tracker | Bezpośrednie GSC API + tabela Postgres z historią delt |
Większość zespołów już płaci za generator tekstu i rank tracker; nowość to orchestrator i prompty decide. Artykuł o narzędziach do automatyzacji SEO opisuje część nie-AI stosu.
Prawie każdy artykuł o „agentic SEO”, który czytałem w 2026 r., poświęca większość miejsca generatorowi treści. Generator jest rozwiązany. Problem projektowy to „decide” – tu należy inwestować czas iteracji.
Dobry „decide” zadaje cztery pytania, mniej więcej w tej kolejności:
1. Które strony tracą najwięcej tydzień do tygodnia? Kubeł defensywny. Strona z pozycji 7 spada na 12 i traci 35 % wyświetleń – krwawi. Zatrzymaj krwawienie zanim gonisz wzrost.
2. Które strony są w zasięgu skoku (pozycja 4–20) i mają sensowny wolumen? Kubeł ofensywny. Strona na 14 pozycji z 6 000 odsłon miesięcznie ma większy potencjał po jednym re-write niż strona na 2 pozycji z 30 000 odsłon. Skok 14 → 8 potraja CTR; 2 → 1 dodaje kilka punktów procentowych. Zobacz przewodnik po content decay dla logiki bracketów pozycji.
3. Które strony starzeją się najszybciej? Proxy: miesiące od ostatniego odświeżenia. Strona nietknięta od 14 miesięcy psuje się częściej niż ta aktualizowana kwartał temu. Store agenta zapisuje daty odświeżeń; „decide” dociąża przeterminowane strony.
4. Które strony konkurencji awansowały w SERP dla naszych słów? Jeśli konkurent ląduje na pozycji 6 dla hasła, na którym my jesteśmy 5, agent flaguje to jako defensywny priorytet na przyszły tydzień. Ten sygnał wymaga scrapu SERP; sam GSC go nie pokaże.
„Decide”, który łączy cztery sygnały, wybierze inną stronę niż taki oparty tylko na deltach tygodniowych. W praktyce wersja czterosygnałowa trafia w decyzje, z którymi zgadza się doświadczony operator, w ok. 70 % przypadków. Rozbieżności to miejsce, gdzie redakcja słusznie nadpisuje prompt. To właściwa proporcja.

Sekcja „na przekór”. Większość artykułów z tego nurtu jej nie pisze, bo sprzedający agentów nie zyskują, gdy czytelnik stwierdzi, że nie potrzebuje produktu.
Pojedyncza strona < 300 podstron. Agent to overkill. Cotygodniowy 30-min. przegląd Looker Studio + ręczna kolejka odświeżeń jest szybsza i tańsza. Wartość „decide” rośnie z liczbą kandydatów; przy < 300 stron operator przejrzy je w 20 min. Skrypt Pythona, który wrzuca top 10 na Slacka, wystarczy.
300+ podstron na jednej stronie. Agent się spłaca. „Decide” ma co robić, a Verify się kumuluje: po pół roku agent wie, które rewritety działały w których silo, co bije skrypt zaczynający od zera co tydzień.
Agencja z 5+ klientami. Ta sama konkluzja. Koszt przełączania kontekstu między klientami to dokładnie to, co usuwa „decide”. Agent czyta GSC wszystkich klientów naraz i wypuszcza top 3 globalnie, więc operator nie przeskakuje po pięciu dashboardach.
Nie buduj agenta, bo to ciekawe; zbuduj, bo inaczej „decide” zjada ci poniedziałkowe poranki. Artykuł o skalowaniu usług SEO i tekst o automatyzacji dla freelancerów opisują decyzję cron vs agent dla małych portfeli.

Tydzień 1: kosztowy wystrzał. Pierwsze uruchomienie kosztuje 4 $. Drugie – 48 $, bo agent wpadł w pętlę tool-call. Schemat: agent woła narzędzie „fetch competitor SERP”, to się timeoutuje, agent próbuje ponownie, retry odpala kolejne wywołanie, pętla leci godzinę po stawkach Claude Opus. Fix: twardy limit tokenów, budżet kroków w promptcie („max 20 tool-call”), breaker przerywający run > 20 $.
Tydzień 4: halucynowane fakty. Generator wymyśla cytat lub statystykę. Operator nie zauważa przy zatwierdzaniu, bo akapit brzmi płynnie. Strona idzie live z danymi Ahrefs, których nikt nie znajdzie w Ahrefs. Czytelnik pisze maila. Gorzej: konkurent wrzuca screenshota na X. Fix: krok fact-check przed zatwierdzeniem, który grep-uje każdą liczbę w tekście do pewnych źródeł, plus twarda zasada: generator cytuje tylko statystyki obecne w inputach.
„Ryzyko automatyzacji to nie złe wyniki, tylko to, że przestajesz je sprawdzać.” — parafraza Marie Haynes, 2025
Miesiąc 3: ciche obejście guard-raila. Operator przyzwyczaja się do pętli, przestaje czytać diff, zatwierdza stronę z powolnym driftem tonu. Po trzech miesiącach połowa korpusu brzmi jak AI. Fix: rotacja reviewerów, audyt 20 % diffów przez drugą osobę, check spójności tonu na oknie 90 dni. Stronę wykrywania AI omawiamy w tekście o humanizacji AI-treści.
Rzetelne miesięczne liczby dla małego i średniego portfela:
| Warstwa | Narzędzie | Mały (~50 stron) | Średni (~300 stron) |
|---|---|---|---|
| Orchestrator | Claude Agent SDK + Anthropic API | $20–80 | $200–500 |
| Writer | gpt-5.5 (OpenAI) | $30–80 | $80–200 |
| Rank tracker | AccuRanker lub Wincher | $30–50 | $80–150 |
| Runner workflowu | n8n self-host na VPS $5 | $5 | $5–15 |
| Warstwa danych | GSC API + BigQuery export | $0 | $0–20 |
| Suma | ~$85–215 | ~$365–885 |
Czas budowy: kompetentny operator stawia działającą pętlę w 30–50 h. Orchestracja jest łatwa; trudne są prompty „decide” – potrzebują 5–10 iteracji. Instrumentacja „verify” często wypada z v1, bo nie pokazuje wartości przed piątym tygodniem. Dodaj ją mimo to. Bez „verify” „decide” się nie uczy i agent po miesiącu degraduje się do skryptu.
Wersja v1 dla portfela 100 stron w n8n. Zamień dowolny orchestrator w węźle agenta. Cron odpala co poniedziałek 6:00 UTC. Węzły HTTP pobierają API GSC (7 i 28 dni) i SERP API (Brave Search lub Octoparse) dla śledzonych słów; oba zapisują do tabeli Postgres z deltami. Węzeł Claude Agent SDK dostaje oba JSON-y + listę slugów i zwraca ranking kandydatów z jedną akcją na kandydata.
Węzeł switch rozdziela po typie akcji: pełne rewritety lecą do kolejki Slack z zatwierdzeniem; meta-update i linki wewn., które dotykają < 5 linii, mogą przejść bez approvalu. Węzeł HTTP bije w CMS REST API, by wgrać patch ( agent-friendly site wystawia czyste endpointy). Ostatni węzeł HTTP zapisuje akcję, bazę GSC i reviewera do Postgresa na Verify w kolejnym tygodniu. Około tuzina węzłów, weekend konfiguracji.
Pętla oszczędza poniedziałkowy poranek. Nie oszczędza redakcji, narracji strategicznej, rozmowy z klientem ani decyzji o wagach sygnałów – to nadal ręczna robota. Agent jest analitykiem; człowiek – redaktorem. Bez redaktora pętla publikuje bzdury. Koszt to $85–215 miesięcznie przy małym portfelu i 30–50 h budowy. Mniej, niż obiecują hasła o „skali 10×”, więcej, niż sugerują pitchy „wdrożysz w 10 minut”.
Zbuduj pętlę, jeśli „decide” pożera ci poniedziałek. Nie buduj jej tylko dlatego, że słowo „agentic” brzmiało ciekawie na konferencji. Jeśli jesteś przekonany, zacznij od wykrywania decay i strategii odświeżania – to wejścia do „decide”, a warstwę publikacji opisuje jak zbudować site przyjazny agentom.
Możesz użyć czystego OpenAI. Assistants API + strukturalne outputy odwzorują wzorzec wywołań narzędzi, a koszt jest porównywalny. Przewagą Claude Agent SDK są wbudowane prymitywy pamięci i czytelniejsza kontrola budżetu pętli narzędzi, co nabiera znaczenia powyżej 100 stron. Do v1 na 50 stron wystarczy plain OpenAI. Przesiądziesz się później, jeśli warstwa pamięci stanie się wąskim gardłem.
Około 300 stron na jednej witrynie lub każda agencja z 5+ klientami. Poniżej tego lepszy jest dashboard Looker Studio + zaplanowany skrypt Pythona. Wartość kroku „decide” rośnie z liczbą kandydatów; na 50-stronowej stronie operator przejrzy listę w 10 min. Poniżej 300 stron płacisz ceny agenta za zachowanie crona.
Bramka z ludzkim zatwierdzeniem przed publikacją + check spójności tonu na oknie 90 dni. Pierwsza jest nie do negocjacji dla czegokolwiek dłuższego niż meta-title. Druga łapie powolny drift tonu. Audytuj próbkę 20 % diffów przez drugiego reviewera, by upewnić się, że pierwszy nadal czyta uważnie.
Cichego obejścia guard-raila w trzecim miesiącu. Kosztowy wystrzał z tygodnia 1 jest oczywisty i do naprawy w godzinę. Halucynacje z tygodnia 4 łapiesz, dodając fact-check. Drift głosu z miesiąca 3 prześlizguje się, bo operator przestaje czytać diff po tygodniach „wygląda OK”.
Tak, z zastrzeżeniami. gpt-5.5 i Claude piszą kompetentnie po hiszpańsku, niemiecku, francusku, włosku, niderlandzku i polsku, ale prompt kalibracji tonu trzeba stworzyć per język; tłumaczone reguły tonu nie przeniosą się. Scrape SERP i pobranie GSC muszą używać właściwych kodów języka i kraju. Dla warstwy AI-search zobacz tekst o GEO.
no credit card required
No related articles found.