Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →De meeste artikelen die ik de afgelopen zes maanden over “agentic SEO” heb gelezen, zijn verkoperspitches in een tutorialjasje. Ze beginnen met een definitie die een geplande scriptuitvoering verwart met een echte agent, noemen vervolgens twee of drie tools die de auteur verkoopt, beloven een zelfupdaterende contentmachine die nul toezicht nodig heeft en sluiten af met een knop om een demo te boeken. Tegen de tijd dat ik bij die knop ben, weet ik meestal minder dan bij de intro.
Een agentische SEO-workflow is wél iets dat de moeite waard is om te bouwen, maar niet zoals de pitches van leveranciers het schetsen. Het is een lus die signaleert, beslist, plant, uitvoert en verifieert. De meeste waarde zit in de decide-stap; het meeste risico in de execute-stap. Het verschil tussen een nuttige agent en een merkschadeincident is precies één menselijke goedkeuring vóór publicatie.
Ik heb ons eigen portfolio bij SEOJuice ruim een jaar zo’n lus zien draaien en heb een paar in-house teams geholpen hun eigen variant op te zetten. De architectuur is identiek; de tools per laag zijn uitwisselbaar; het interessante werk zit in de decide-stap. Dit artikel loopt de vijf fasen door, bespreekt de tools per fase, de faalpatronen die het kunnen breken, de beslisboom voor wanneer een agent overkill is en een eerlijke kosteninschatting.
TL;DR:

Het woord “agentic” heeft in 2026 veel marketingwerk verzet en de nuance is belangrijk, want de faalpatronen volgen precies deze scheidslijn. Een cronjob draait hetzelfde commando op een schema. Een gepland script doorloopt een reeks stappen en kan op conditions vertakken. Een workflow in de n8n- of Make-zin is een gepland script met een visuele editor. Geen van die drie is een agent. Een agent beslist wat hij daarna doet op basis van wat hij zojuist heeft geleerd. Hij heeft geheugen van de vorige run, een doel en een set tools die hij kan aanroepen. Kenmerkend is de lus: de output van deze week wordt de input van volgende week.
De test is simpel: als het gedrag van je tool in week vier niet kan verschillen van week één op basis van wat er tussendoor is gebeurd, is het geen agent. De meeste AI-SEO-tools die ik het afgelopen kwartaal heb gebenchmarkt, inclusief enkele in onze 2026 AI-SEO-tool-round-up, zitten aan de script-kant van die lijn. Prima, maar betaal dan geen agent-prijzen voor cron-gedrag.
De architectuur is identiek of je nu bouwt met Claude Agent SDK, OpenAI’s Assistants API of n8n. De fasen zijn het contract.
Sense. Data inlezen. GSC-API voor de laatste zeven en 28 dagen. Een SERP-fetch voor getrackte keywords (Brave Search API, Bing of een scraper zoals Octoparse). Interne analytics (Plausible, GA4). Output: een JSON-state-snapshot, grofweg 30 KB per run bij een portfolio van 100 pagina’s.
Decide. Kandidaatacties rangschikken. Dit is de agent-stap, niet de script-stap. De agent krijgt het snapshot, de inventaris van pagina’s met hun laatste-refresh-datum en het doel (offensieve striking-distance-push, defensieve decay-refresh of hybride). Hij retourneert een gerangschikte lijst van één tot vijf kandidaatpagina’s met een voorgestelde actie per kandidaat.
Plan. Voor de hoogst gerangschikte kandidaat: huidige HTML ophalen, top-3 SERP-resultaten voor de target-keyword ophalen, de gap identificeren. Output: een gestructureerde outline—welke secties houden, uitbreiden, toevoegen of verwijderen.
Execute. Patch schrijven. Dat kan een volledige rewrite zijn, een sectie-addition, een meta-title-update, een interne-link-invoeging of een schema-markup-toevoeging. Output is HTML die klaarstaat, maar nog niet is toegepast. Hier zit de menselijke goedkeuringspoort.
Verify. De Sense-stap van volgende week haalt GSC binnen en vergelijkt de position-delta van de geverifieerde pagina met de baseline die is vastgelegd tijdens Execute. Als de positie is verbeterd, markeer als win; als hij is gedaald, laat het verschil aan de operator zien. Zo sluit de verify-lus de cyclus. De output van vorige week wordt de input van deze week in de decide-stap. Dat maakt het agentisch. Een pipeline die elke week dezelfde vijf stappen draait zonder geheugen van wat werkte, is een script.

De meeste genoemde opties zijn binnen hun fase uitwisselbaar. Uitzondering: de orchestrator. Anthropic’s Claude Agent SDK is momenteel de laagste-frictie orchestrator in productie; de OpenAI Assistants API werkt, maar heeft minder ingebouwde tool-call-patronen. n8n’s agent-node ondersteunt inmiddels Claude via de Anthropic-chat-integratie en is de goedkoopste route als je een visuele workflow wilt.
| Fase | Benodigd | Kant-en-klaar | Eigen bouw |
|---|---|---|---|
| Sense | Data-fetch + snapshot | GSC-API plus BigQuery-export; Ahrefs Site Audit voor site-health | Python dat direct GSC-API leest naar JSON |
| Decide | Rangschiklogica met geheugen | Claude Agent SDK; OpenAI Assistants API | Aangepaste prompt met JSON-output plus eigen memory-store |
| Plan | Competitive gap-analyse | Surfer SEO, Frase-outline, Clearscope-brief | Headless browser plus gpt-5.5 met gap-analyse-prompt |
| Execute | Patch-generatie | gpt-5.5 met template + voice-calibratie; SEOJuice voor interne links en decay-lagen | Dezelfde gpt-5.5-call met handmatige edit |
| Verify | Positie-delta-tracking | AccuRanker, Wincher, Ahrefs Rank Tracker | Direct GSC-API plus een Postgres-tabel voor delta-historie |
De meeste teams betalen al voor een writer en een rank-tracker; de nieuwbouw zit in de orchestrator en de decide-prompts. Het artikel over tools voor SEO-automatisering behandelt de niet-AI-delen van de stack.
Bijna elk “agentic SEO”-artikel dat ik in 2026 heb gelezen, besteedt het grootste deel van de tekst aan de writer-stap. De writer-stap is opgelost. Het ontwerpvraagstuk zit in de decide-stap, en daar hoort je iteratiebudget heen te gaan.
Een goede decide-stap stelt vier vragen, ongeveer in deze volgorde:
1. Welke pagina’s verloren week-op-week de meeste grond? Dit is de defensieve bucket. Een pagina op positie 7 die naar 12 zakte met 35 % minder impressies bloedt. Stop het bloeden voordat je op groei jaagt.
2. Welke pagina’s staan in striking distance (positie 4 t/m 20) met betekenisvolle impressies? De offensieve bucket. Een pagina op positie 14 met 6.000 maandelijkse impressies levert met één rewrite meer op dan een pagina op positie 2 met 30.000 impressies. Van 14 naar 8 verdrievoudigt de CTR ongeveer; van 2 naar 1 verhoogt de CTR maar een paar procentpunten. Zie onze content-decay-gids voor de position-bracket-aanpak.
3. Welke pagina’s verouderen het snelst? Aantal maanden sinds de laatste refresh is de indicator. Een pagina die 14 maanden niet is aangeraakt, vervalt eerder dan eentje die vorig kwartaal is geüpdatet. Het geheugen van de agent registreert laatste-refresh-data; de decide-stap weegt oude pagina’s zwaarder.
4. Welke concurrentpagina’s zijn deze week gestegen in de SERP voor onze keywords? Als een concurrent op positie 6 landt voor een keyword waarop jij positie 5 hebt, markeert de agent dit als defensieve prioriteit voor volgende week. Dit signaal vereist een SERP-scrape; GSC alleen toont het niet.
Een decide-stap die alle vier signalen combineert, kiest een andere pagina dan eentje die alleen week-op-week-deltas gebruikt. In de praktijk levert de vier-signaal-variant beslissingen op waar een ervaren operator het circa 70 % van de tijd mee eens is. Het meningsverschil is precies waar de redactionele blik van de operator de prompt terecht overrulet. Dat is de juiste ratio.

Het tegendraadse stuk. De meeste artikelen in dit genre schrijven het nooit, want de leverancier die de agent verkoopt heeft er geen baat bij als de lezer concludeert dat hij er geen nodig heeft.
Één site met minder dan 300 pagina’s. Agent is overkill. Een wekelijkse review van 30 minuten in Looker Studio plus een handmatige refresh-queue is sneller en goedkoper. De decide-waarde schaalt met het aantal kandidaten; onder 300 pagina’s kan een operator ze in 20 minuten scannen. Een zelfgeschreven Python-script dat een top-10 naar Slack post is meer dan genoeg.
300+ pagina’s op één site. Agent verdient zijn keep. De decide-stap heeft echt werk en de verify-lus stapelt: na zes maanden weet de agent welk type rewrites werkt voor welke silo’s, wat beter is dan een script dat elke week bij nul begint.
Agency met vijf of meer klanten. Zelfde conclusie. De context-switchkosten tussen klanten zijn precies wat de decide-stap wegneemt. De agent leest GSC voor alle klanten tegelijk en toont de top drie wereldwijd, zodat de operator niet meer door vijf dashboards hoeft te klikken.
Bouw geen agent omdat het interessant klinkt; bouw er één omdat de decide-stap anders je maandagochtend opslokt. Het stuk over SEO-services opschalen en het artikel over freelance-automatisering behandelen de cron-versus-agent-keuze voor kleine portfolio’s.

Week 1: de kostenexplosie. De eerste wekelijkse run kost $4. De tweede $48 omdat de agent in een tool-call-loop belandde. Vaak patroon: agent roept “fetch competitor SERP”, tool time-out, agent retry, retry triggert nóg een tool-call; de loop draait een uur op Claude Opus-tarief. Fix: harde token-cap per run, expliciet stappenbudget in de prompt (“maximaal 20 tool-calls”) en een circuit-breaker die stopt als de kosten boven $20 komen.
Week 4: gehallucineerde feiten. De writer-stap verzint een citaat of statistiek. De operator ziet het niet bij de goedkeuring omdat de alinea vloeiend leest. De pagina gaat live met een verzonnen Ahrefs-cijfer dat niemand terugvindt. Een lezer mailt. Of erger: een concurrent maakt een screenshot en zet het op X. Fix: een fact-check-stap vóór de goedkeuring die elke numerieke claim grep-t op een known-good source, plus een harde regel dat de writer alleen stats mag citeren die in de input-notes staan.
“Het risico van automatisering is niet slechte output, maar dat je stopt met controleren.” — vrij naar Marie Haynes, 2025
Maand 3: stille guardrail-bypass. Deze is subtiel. De operator raakt gewend aan de lus, leest de diff niet meer nauwgezet en keurt een pagina goed met voice-drift die de agent geleidelijk introduceerde. Drie maanden later leest de helft van het corpus alsof het AI is. Fix: roteer reviewers, zodat niemand gewend raakt; steekproef-audit minstens 20 % van de goedgekeurde diffs met een tweede reviewer; draai een voice-consistentie-check over de rollende 90-dagen window. De AI-detectie-kant behandelen we in ons stuk over AI-content humaniseren.
Eerlijke maandbedragen voor een klein tot middelgroot portfolio:
| Laag | Tool | Klein (~50 pag.) | Middel (~300 pag.) |
|---|---|---|---|
| Orchestrator | Claude Agent SDK + Anthropic API | $20-80 | $200-500 |
| Writer | gpt-5.5 (OpenAI) | $30-80 | $80-200 |
| Rank-tracker | AccuRanker of Wincher | $30-50 | $80-150 |
| Workflow-runner | n8n self-host op $5 VPS | $5 | $5-15 |
| Data-laag | GSC-API + BigQuery-export | $0 | $0-20 |
| Totaal | ~$85-215 | ~$365-885 |
Bouwtijd: een bekwame operator zet een werkende lus op in 30-50 uur. Orkestratie is makkelijk; de decide-prompts fine-tunen is het lastige—vijf tot tien iteraties. Verify-instrumentatie sneuvelt vaak in v1 omdat het pas in week 5 waarde toont. Toch in v1 bouwen: zonder verify wordt de decide-stap nooit slimmer en verwordt de agent tot een gepland script na een maand.
De v1-vorm voor een 100-pag. portfolio in n8n. Vervang naar keuze de orchestrator in de agent-node. Een cron-node vuurt elke maandag om 06:00 UTC. HTTP-nodes raken de GSC-API (7- en 28-dagen) en een SERP-API (Brave Search of Octoparse) voor keywords; beide schrijven naar een Postgres-delta-tabel. Een Claude Agent SDK-node ontvangt beide JSON-blobs plus de pagina-inventaris en retourneert een gerangschikte kandidatenlijst met één actie per kandidaat.
Een switch-node splitst op actietype: full-rewrites gaan via een Slack-goedkeuringsqueue; meta-updates en interne-link-invoegingen onder vijf regels kunnen zonder goedkeuring door. Een HTTP-node raakt de CMS-REST-API om de patch toe te passen (een agent-vriendelijke site stelt deze endpoints netjes bloot). Een laatste HTTP-node logt de actie, GSC-baseline en reviewer in Postgres voor de verify-stap van volgende week. Een dozijn nodes, een weekend configuratie.
Wat de lus bespaart, is je maandagochtend. Wat hij níét bespaart, is de redactionele pass, de strategische verhaallijn, het klantgesprek of het oordeel over welke signalen je zwaarder weegt. Die blijven handwerk. De agent is de analist; de mens is de editor. Sla de editor over en de lus publiceert onzin. Kosten: $85-215 per maand voor een klein portfolio en 30-50 uur bouwtijd. Kleiner dan de “scale je content 10x”-pitches doen vermoeden; groter dan de “klaar in 10 minuten”-pitches beweren.
Bouw de lus omdat de decide-stap anders je maandag opeet. Bouw hem niet omdat het woord “agentic” leuk klonk op een conferentie. Ben je overtuigd dat je ’m nodig hebt, begin dan met decay-detectie en refresh-strategie, want die vormen de input voor je decide-stap, en het publish-laag-ontwerp vind je in hoe je een agent-vriendelijke site bouwt.
Ja, je kunt het met puur OpenAI doen. De Assistants API plus gestructureerde output dekt het tool-call-patroon en de kosten zijn vergelijkbaar. Voordeel van Claude Agent SDK is de ingebouwde memory-primitives en de strakkere budgetcontrole op tool-loops, wat pas echt telt boven 100 pagina’s. Voor een v1 op 50 pagina’s is plain OpenAI prima. Schakel later over als het geheugen een bottleneck wordt.
Ruwweg 300 pagina’s op één site, of een agency-portfolio met 5+ klanten. Daaronder volstaat een Looker-dashboard plus een geplande Python-script. De decide-waarde schaalt met het kandidatenaantal; op een site van 50 pagina’s scant een operator de kandidaten in 10 minuten. Onder 300 pagina’s betaal je agent-prijzen voor cron-gedrag.
Een menselijke goedkeuringspoort vóór publicatie, plus een voice-consistentie-check over een rollend 90-dagen venster. De eerste is niet onderhandelbaar voor alles langer dan een meta-title-update. De tweede vangt de langzame voice-drift die zich in maanden opbouwt. Audit minstens 20 % van de goedgekeurde diffs steekproefsgewijs met een tweede reviewer om te bevestigen dat de primaire reviewer nog steeds goed leest.
De stille guardrail-bypass in maand 3. De kostenexplosie in week 1 is duidelijk en in een uur te fixen. De gehallucineerde feiten in week 4 vang je met een fact-check. De voice-drift in maand 3 sluipt erdoor omdat de operator na weken “ziet er goed uit” niet meer scherp leest.
Ja, met kanttekeningen. gpt-5.5 en Claude schrijven prima Spaans, Duits, Frans, Italiaans, Nederlands en Pools, maar de voice-calibratie-prompt moet per taal worden geschreven; vertaalde voice-regels werken niet. De SERP-scrape en GSC-fetch moeten de juiste taal- en landcodes gebruiken. Voor hoe AI-search hiermee omgaat, zie het GEO-stuk.
no credit card required
No related articles found.