seojuice

Jak zbudować agentowy workflow SEO (bez ryzyka publikowania śmieciowych treści)

Vadim Kravcenko
Vadim Kravcenko
· Updated · 12 min read

Większość artykułów o „agentic SEO”, które przeczytałem w ostatnich sześciu miesiącach, to sprzedażowe oferty przebrane za poradniki. Zaczynają się od definicji, która wrzuca do jednego worka zaplanowany skrypt i prawdziwego agenta, wspominają o dwóch–trzech narzędziach sprzedawanych przez autora, obiecują samoaktualizujący się silnik treści niewymagający nadzoru, a kończą przyciskiem rezerwacji demo. Gdy docieram do końca, wiem zazwyczaj mniej niż na początku.

Agentowy workflow SEO istnieje i warto go zbudować, ale nie w sposób, w jaki opisują to oferty vendorów. To pętla, która obserwuje, decyduje, planuje, wykonuje i weryfikuje. Największa wartość kryje się w kroku „decide”, największe ryzyko – w „execute”. Różnicę między użytecznym agentem a kryzysem wizerunkowym stanowi jedno ludzkie „zatwierdź” przed publikacją.

Od ponad roku obserwuję, jak nasze własne portfolio w SEOJuice pracuje w takiej pętli, i pomogłem kilku zespołom in-house uruchomić ich wersję. Architektura jest identyczna; narzędzia na każdym poziomie można zamieniać; najciekawsza praca dzieje się w kroku „decide”. W tym artykule omawiam pięć etapów pętli, narzędzia na każdym z nich, typowe awarie, drzewo decyzji pokazujące, kiedy agent to przerost formy nad treścią, oraz rzetelny kosztorys.

TL;DR:

  • Agentowy workflow SEO to pętla, nie skrypt. Pięć etapów: Sense (odczyt GSC i SERP), Decide (ranking tego, co odświeżyć), Plan (szkic zmian), Execute (napisanie poprawki), Verify (porównanie przed i po). Architektura jest taka sama, czy zbudujesz to na Claude Agent SDK + n8n, czy na Make + OpenAI.
  • Krok „decide” to miejsce, w którym agent zarabia na siebie. Podpiąć generator tekstu może każdy; trudniej wybrać stronę wartą dotknięcia w tym tygodniu. Dobry „decide” łączy tygodniowe delty GSC, logikę przedziałów pozycji, wiek treści i monitoring konkurencji.
  • Nie pozwalaj agentowi publikować. Całkowicie autonomiczne „ustaw i zapomnij” to wypadek wizerunkowy czekający na okazję. Każda pętla potrzebuje ludzkiego zatwierdzenia przed wdrożeniem patcha w CMS-ie. Agent jest analitykiem; człowiek – redaktorem.
Five-stage agentic SEO loop with arrows from Sense (GSC + SERP scrape) through Decide, Plan, Execute, and Verify, returning to Sense for the next week
Pięcioetapowa pętla. Sense i Verify są tylko do odczytu. Decide to miejsce, w którym agent się spłaca. Execute to strefa ryzyka. Strzałka z Verify z powrotem do Sense sprawia, że to agent, a nie zaplanowany skrypt.

Co właściwie znaczy „agentic” (i pięć etapów pętli)

Słowo „agentic” wykonało w 2026 r. sporo marketingowej roboty i trzeba je odróżnić, bo na tym rozjeżdżają się scenariusze awarii. Cron odpala tę samą komendę wg harmonogramu. Zaplanowany skrypt wykonuje sekwencję kroków i może rozgałęziać się na warunkach. Workflow w rozumieniu n8n lub Make to zaplanowany skrypt z edytorem graficznym. Żadne z nich nie jest agentem. Agent decyduje, co zrobić dalej, na podstawie tego, czego właśnie się dowiedział. Pamięta poprzednie uruchomienie, ma cel i zestaw narzędzi. Kluczowy jest loop: wyniki z tego tygodnia stają się danymi wejściowymi w kolejnym.

Test jest prosty: jeśli narzędzie w tygodniu czwartym nie może zachować się inaczej niż w pierwszym na podstawie tego, co wydarzyło się po drodze, nie jest agentem. Większość narzędzi AI-SEO, które benchmarkowałem w ostatnim kwartale, w tym część opisanych w naszym przeglądzie narzędzi AI SEO 2026, ląduje po stronie zaplanowanych skryptów. I to jest OK – byle nie płacić cen agenta za zachowanie crona.

Architektura wygląda identycznie, czy budujesz na Claude Agent SDK, OpenAI Assistants API, czy n8n. Etapy są kontraktem.

Sense. Pobranie danych: API GSC z ostatnich 7 dni i 28 dni, zrzut SERP dla śledzonych słów kluczowych (Brave Search API, Bing lub scraper typu Octoparse), analityka wewnętrzna (Plausible, GA4). Wyjściem jest migawka stanu w JSON-ie – ok. 30 KB na run przy 100 podstronach.

Decide. Ranking propozycji działań. To krok agenta, nie skryptu. Agent dostaje migawkę stanu, inwentarz stron z datami ostatniego odświeżenia i cel (ofensywny push z pozycji brzegowych, defensywne odświeżenie decay lub hybryda). Zwraca listę 1–5 kandydatów z proponowanym działaniem.

Plan. Dla najlepszego kandydata pobierz aktualne HTML strony, trzy topowe wyniki SERP na docelowe słowo, zidentyfikuj lukę. Wyjście: strukturalny szkic, co zachować, rozbudować, dodać lub usunąć.

Execute. Napisz patch: pełny rewrite, dodanie sekcji, aktualizacja meta-title, wewnętrzny link, schema itd. Wyjściem jest HTML gotowy do wdrożenia, ale jeszcze nie wdrożony. Tu stoi bramka z zatwierdzeniem.

Verify. W następnym tygodniu Sense pobiera GSC i porównuje delta pozycji strony z bazą zarejestrowaną przy Execute. Jeśli pozycja wzrosła – sukces; jeśli spadła – pokaż diff operatorowi. Verify zamyka cykl: zeszłotygodniowe wyjścia stają się wejściami Decide. To czyni pętlę agentową. Pipeline, który co tydzień powtarza te same pięć kroków bez pamięci, jest skryptem.

Four-layer tool map: data layer (GSC API, BigQuery export), orchestrator (Claude Agent SDK), writer (gpt-5.5 with structured outputs), publisher (CMS REST APIs)
Warstwy narzędzi i opcje w każdej z nich. Większość zespołów już płaci za generator treści i rank tracker. Nowe elementy to zwykle orchestrator i prompty kroku decide.

Narzędzia pasujące do każdego etapu

Nazwy w ramach etapu da się zazwyczaj wymieniać. Wyjątek to orchestrator. Claude Agent SDK ma dziś najmniej tarcia w produkcji; OpenAI Assistants API działa, ale ma mniej wbudowanych wzorców tool-call. Node agentowy w n8n obsługuje Claude’a przez integrację z Anthropic i jest najtańszą ścieżką dla fanów workflow wizualnych.

EtapCzego wymagaOpcja gotowaOpcja własna
SensePobranie danych + migawka stanuGSC API + BigQuery export; Ahrefs Site AuditPython czytający GSC API bezpośrednio do JSON
DecideLogika rankingu z pamięciąClaude Agent SDK; OpenAI Assistants APIWłasny prompt z JSON-em strukturalnym + własny store pamięci
PlanAnaliza luki konkurencyjnejSurfer SEO, Frase outline, Clearscope briefHeadless browser + gpt-5.5 z prompta gap-analysis
ExecuteGeneracja patchagpt-5.5 z szablonem + kalibracja tonu; SEOJuice do linkowania wewn. i dekayTen sam gpt-5.5 + ręczna edycja
VerifyŚledzenie delt pozycjiAccuRanker, Wincher, Ahrefs Rank TrackerBezpośrednie GSC API + tabela Postgres z historią delt

Większość zespołów już płaci za generator tekstu i rank tracker; nowość to orchestrator i prompty decide. Artykuł o narzędziach do automatyzacji SEO opisuje część nie-AI stosu.

Krok „decide” to miejsce, w którym agent zarabia

Prawie każdy artykuł o „agentic SEO”, który czytałem w 2026 r., poświęca większość miejsca generatorowi treści. Generator jest rozwiązany. Problem projektowy to „decide” – tu należy inwestować czas iteracji.

Dobry „decide” zadaje cztery pytania, mniej więcej w tej kolejności:

1. Które strony tracą najwięcej tydzień do tygodnia? Kubeł defensywny. Strona z pozycji 7 spada na 12 i traci 35 % wyświetleń – krwawi. Zatrzymaj krwawienie zanim gonisz wzrost.

2. Które strony są w zasięgu skoku (pozycja 4–20) i mają sensowny wolumen? Kubeł ofensywny. Strona na 14 pozycji z 6 000 odsłon miesięcznie ma większy potencjał po jednym re-write niż strona na 2 pozycji z 30 000 odsłon. Skok 14 → 8 potraja CTR; 2 → 1 dodaje kilka punktów procentowych. Zobacz przewodnik po content decay dla logiki bracketów pozycji.

3. Które strony starzeją się najszybciej? Proxy: miesiące od ostatniego odświeżenia. Strona nietknięta od 14 miesięcy psuje się częściej niż ta aktualizowana kwartał temu. Store agenta zapisuje daty odświeżeń; „decide” dociąża przeterminowane strony.

4. Które strony konkurencji awansowały w SERP dla naszych słów? Jeśli konkurent ląduje na pozycji 6 dla hasła, na którym my jesteśmy 5, agent flaguje to jako defensywny priorytet na przyszły tydzień. Ten sygnał wymaga scrapu SERP; sam GSC go nie pokaże.

„Decide”, który łączy cztery sygnały, wybierze inną stronę niż taki oparty tylko na deltach tygodniowych. W praktyce wersja czterosygnałowa trafia w decyzje, z którymi zgadza się doświadczony operator, w ok. 70 % przypadków. Rozbieżności to miejsce, gdzie redakcja słusznie nadpisuje prompt. To właściwa proporcja.

Decision tree splitting freelancer, in-house, and agency portfolios by page count and client count, terminating in three recommendations: manual review, scheduled scripts, or full agent loop
Kiedy agent się opłaca, a kiedy wystarczy skrypt lub dashboard Looker Studio. Większość małych portfeli nie potrzebuje agenta.

Kiedy agent to przerost formy

Sekcja „na przekór”. Większość artykułów z tego nurtu jej nie pisze, bo sprzedający agentów nie zyskują, gdy czytelnik stwierdzi, że nie potrzebuje produktu.

Pojedyncza strona < 300 podstron. Agent to overkill. Cotygodniowy 30-min. przegląd Looker Studio + ręczna kolejka odświeżeń jest szybsza i tańsza. Wartość „decide” rośnie z liczbą kandydatów; przy < 300 stron operator przejrzy je w 20 min. Skrypt Pythona, który wrzuca top 10 na Slacka, wystarczy.

300+ podstron na jednej stronie. Agent się spłaca. „Decide” ma co robić, a Verify się kumuluje: po pół roku agent wie, które rewritety działały w których silo, co bije skrypt zaczynający od zera co tydzień.

Agencja z 5+ klientami. Ta sama konkluzja. Koszt przełączania kontekstu między klientami to dokładnie to, co usuwa „decide”. Agent czyta GSC wszystkich klientów naraz i wypuszcza top 3 globalnie, więc operator nie przeskakuje po pięciu dashboardach.

Nie buduj agenta, bo to ciekawe; zbuduj, bo inaczej „decide” zjada ci poniedziałkowe poranki. Artykuł o skalowaniu usług SEO i tekst o automatyzacji dla freelancerów opisują decyzję cron vs agent dla małych portfeli.

Timeline showing typical agentic SEO failure modes: week-one cost blowout, week-four hallucinated facts, month-three silent guardrail bypass
Trzy awarie, które cię spotkają, mniej więcej w tej kolejności. Głos-drift z trzeciego miesiąca zaskakuje większość operatorów.

Trzy rzeczy, które się psują – i kiedy

Tydzień 1: kosztowy wystrzał. Pierwsze uruchomienie kosztuje 4 $. Drugie – 48 $, bo agent wpadł w pętlę tool-call. Schemat: agent woła narzędzie „fetch competitor SERP”, to się timeoutuje, agent próbuje ponownie, retry odpala kolejne wywołanie, pętla leci godzinę po stawkach Claude Opus. Fix: twardy limit tokenów, budżet kroków w promptcie („max 20 tool-call”), breaker przerywający run > 20 $.

Tydzień 4: halucynowane fakty. Generator wymyśla cytat lub statystykę. Operator nie zauważa przy zatwierdzaniu, bo akapit brzmi płynnie. Strona idzie live z danymi Ahrefs, których nikt nie znajdzie w Ahrefs. Czytelnik pisze maila. Gorzej: konkurent wrzuca screenshota na X. Fix: krok fact-check przed zatwierdzeniem, który grep-uje każdą liczbę w tekście do pewnych źródeł, plus twarda zasada: generator cytuje tylko statystyki obecne w inputach.

„Ryzyko automatyzacji to nie złe wyniki, tylko to, że przestajesz je sprawdzać.” — parafraza Marie Haynes, 2025

Miesiąc 3: ciche obejście guard-raila. Operator przyzwyczaja się do pętli, przestaje czytać diff, zatwierdza stronę z powolnym driftem tonu. Po trzech miesiącach połowa korpusu brzmi jak AI. Fix: rotacja reviewerów, audyt 20 % diffów przez drugą osobę, check spójności tonu na oknie 90 dni. Stronę wykrywania AI omawiamy w tekście o humanizacji AI-treści.

Koszty i czas budowy

Rzetelne miesięczne liczby dla małego i średniego portfela:

WarstwaNarzędzieMały (~50 stron)Średni (~300 stron)
OrchestratorClaude Agent SDK + Anthropic API$20–80$200–500
Writergpt-5.5 (OpenAI)$30–80$80–200
Rank trackerAccuRanker lub Wincher$30–50$80–150
Runner workflowun8n self-host na VPS $5$5$5–15
Warstwa danychGSC API + BigQuery export$0$0–20
Suma~$85–215~$365–885

Czas budowy: kompetentny operator stawia działającą pętlę w 30–50 h. Orchestracja jest łatwa; trudne są prompty „decide” – potrzebują 5–10 iteracji. Instrumentacja „verify” często wypada z v1, bo nie pokazuje wartości przed piątym tygodniem. Dodaj ją mimo to. Bez „verify” „decide” się nie uczy i agent po miesiącu degraduje się do skryptu.

Pętla startowa do skopiowania

Wersja v1 dla portfela 100 stron w n8n. Zamień dowolny orchestrator w węźle agenta. Cron odpala co poniedziałek 6:00 UTC. Węzły HTTP pobierają API GSC (7 i 28 dni) i SERP API (Brave Search lub Octoparse) dla śledzonych słów; oba zapisują do tabeli Postgres z deltami. Węzeł Claude Agent SDK dostaje oba JSON-y + listę slugów i zwraca ranking kandydatów z jedną akcją na kandydata.

Węzeł switch rozdziela po typie akcji: pełne rewritety lecą do kolejki Slack z zatwierdzeniem; meta-update i linki wewn., które dotykają < 5 linii, mogą przejść bez approvalu. Węzeł HTTP bije w CMS REST API, by wgrać patch ( agent-friendly site wystawia czyste endpointy). Ostatni węzeł HTTP zapisuje akcję, bazę GSC i reviewera do Postgresa na Verify w kolejnym tygodniu. Około tuzina węzłów, weekend konfiguracji.

Przemyślenia końcowe

Pętla oszczędza poniedziałkowy poranek. Nie oszczędza redakcji, narracji strategicznej, rozmowy z klientem ani decyzji o wagach sygnałów – to nadal ręczna robota. Agent jest analitykiem; człowiek – redaktorem. Bez redaktora pętla publikuje bzdury. Koszt to $85–215 miesięcznie przy małym portfelu i 30–50 h budowy. Mniej, niż obiecują hasła o „skali 10×”, więcej, niż sugerują pitchy „wdrożysz w 10 minut”.

Zbuduj pętlę, jeśli „decide” pożera ci poniedziałek. Nie buduj jej tylko dlatego, że słowo „agentic” brzmiało ciekawie na konferencji. Jeśli jesteś przekonany, zacznij od wykrywania decay i strategii odświeżania – to wejścia do „decide”, a warstwę publikacji opisuje jak zbudować site przyjazny agentom.

FAQ

<summary>Czy naprawdę potrzebuję Claude Agent SDK czy wystarczy czysty OpenAI?</summary>

Możesz użyć czystego OpenAI. Assistants API + strukturalne outputy odwzorują wzorzec wywołań narzędzi, a koszt jest porównywalny. Przewagą Claude Agent SDK są wbudowane prymitywy pamięci i czytelniejsza kontrola budżetu pętli narzędzi, co nabiera znaczenia powyżej 100 stron. Do v1 na 50 stron wystarczy plain OpenAI. Przesiądziesz się później, jeśli warstwa pamięci stanie się wąskim gardłem.

<summary>Jaki minimalny rozmiar portfela uzasadnia budowę?</summary>

Około 300 stron na jednej witrynie lub każda agencja z 5+ klientami. Poniżej tego lepszy jest dashboard Looker Studio + zaplanowany skrypt Pythona. Wartość kroku „decide” rośnie z liczbą kandydatów; na 50-stronowej stronie operator przejrzy listę w 10 min. Poniżej 300 stron płacisz ceny agenta za zachowanie crona.

<summary>Jak powstrzymać agenta przed publikacją treści wykrywalnych jako AI?</summary>

Bramka z ludzkim zatwierdzeniem przed publikacją + check spójności tonu na oknie 90 dni. Pierwsza jest nie do negocjacji dla czegokolwiek dłuższego niż meta-title. Druga łapie powolny drift tonu. Audytuj próbkę 20 % diffów przez drugiego reviewera, by upewnić się, że pierwszy nadal czyta uważnie.

<summary>Jakiego scenariusza awarii powinienem bać się najbardziej?</summary>

Cichego obejścia guard-raila w trzecim miesiącu. Kosztowy wystrzał z tygodnia 1 jest oczywisty i do naprawy w godzinę. Halucynacje z tygodnia 4 łapiesz, dodając fact-check. Drift głosu z miesiąca 3 prześlizguje się, bo operator przestaje czytać diff po tygodniach „wygląda OK”.

<summary>Czy agent poradzi sobie z treściami nieanglojęzycznymi?</summary>

Tak, z zastrzeżeniami. gpt-5.5 i Claude piszą kompetentnie po hiszpańsku, niemiecku, francusku, włosku, niderlandzku i polsku, ale prompt kalibracji tonu trzeba stworzyć per język; tłumaczone reguły tonu nie przeniosą się. Scrape SERP i pobranie GSC muszą używać właściwych kodów języka i kraju. Dla warstwy AI-search zobacz tekst o GEO.

SEOJuice
Stay visible everywhere
Get discovered across Google and AI platforms with research-based optimizations.
Works with any CMS
Automated Internal Links
On-Page SEO Optimizations
Get Started Free

no credit card required

More articles

No related articles found.