Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →Die meisten Artikel, die ich in den letzten sechs Monaten über „agentic SEO“ gelesen habe, sind im Kern Verkaufspitches im Tutorial-Kostüm. Sie starten mit einer Definition, die einen Cron-Job mit einem echten Agenten verwechselt, erwähnen zwei oder drei Tools, die der Autor vertreibt, versprechen eine sich selbst aktualisierende Content-Engine ohne Aufsicht und enden mit einem Demo-Button. Wenn ich dort ankomme, weiß ich meist weniger als am Anfang.
Ein agentischer SEO-Workflow lohnt sich wirklich, nur nicht so, wie ihn die Pitch-Decks zeichnen. Er ist ein Kreislauf aus Erfassen, Entscheiden, Planen, Ausführen und Prüfen. Der größte Mehrwert steckt im Schritt „Decide“, das größte Risiko im Schritt „Execute“. Der Unterschied zwischen hilfreichem Agenten und Markenschaden ist exakt ein menschliches Freigabegate vor dem Veröffentlichen.
Ich habe unser eigenes Portfolio bei SEOJuice über ein Jahr in dieser Schleife laufen lassen und mehrere In-House-Teams beim Aufsetzen begleitet. Die Architektur bleibt identisch, die Tools auf jeder Ebene sind austauschbar, spannend wird es im Decide-Schritt. Dieser Artikel erklärt den Fünf-Phasen-Loop, die Tools pro Phase, die Fehlermuster, den Entscheidungsbaum, wann ein Agent überdimensioniert ist, und eine ehrliche Kostenschätzung.
TL;DR:

Der Begriff „agentic“ musste 2026 viel Marketingarbeit leisten, und die Abgrenzung ist wichtig, weil sich die Fehlermuster genau hier trennen. Ein Cron-Job führt nach Zeitplan denselben Befehl aus. Ein geplantes Skript läuft Schritt für Schritt und kann verzweigen. Ein n8n- oder Make-Workflow ist ein geplantes Skript mit visuellem Editor. Keines davon ist ein Agent. Ein Agent entscheidet, was er als Nächstes tut, basierend auf neu gewonnenen Informationen. Er hat ein Gedächtnis früherer Läufe, ein Ziel und ein Set an Tools, die er aufrufen kann. Kennzeichen ist die Schleife: Die Outputs dieser Woche werden zu den Inputs der nächsten.
Der Test ist simpel: Verhält sich dein Tool in Woche 4 nicht anders als in Woche 1, obwohl dazwischen Neues passiert ist, dann ist es kein Agent. Die meisten AI-SEO-Tools, die ich im letzten Quartal benchmarkte – inklusive einiger in unserem 2026-Round-up – liegen auf der Skript-Seite dieser Linie. Das ist in Ordnung. Zahle nur keine Agent-Preise für Cron-Job-Verhalten.
Die Architektur bleibt gleich, egal ob du mit Claude Agent SDK, der OpenAI Assistants API oder n8n baust. Die Phasen sind der Vertrag.
Sense. Daten einlesen. GSC-API für die letzten sieben und 28 Tage, SERP-Fetch für getrackte Keywords (Brave Search-API, Bing oder ein Scraper wie Octoparse), interne Analytics (Plausible, GA4). Output: ein JSON-Snapshot von ca. 30 KB pro Lauf bei einem 100-Seiten-Portfolio.
Decide. Kandidaten bewerten. Das ist der Agent-Schritt, kein Skript-Schritt. Der Agent erhält den State-Snapshot, das Seiteninventar mit Last-Refresh-Datum und das Ziel (offensiver Striking-Distance-Push, defensives Decay-Refresh oder Hybrid). Er liefert eine priorisierte Liste von 1–5 Seiten samt Aktionsvorschlag.
Plan. Für den Top-Kandidaten: aktuelle HTML-Version holen, Top-3-SERP-Ergebnisse für das Keyword holen, Gap identifizieren. Output: eine strukturierte Gliederung, welche Abschnitte bleiben, erweitert, hinzugefügt oder entfernt werden.
Execute. Patch schreiben. Kann ein kompletter Rewrite, Abschnittserweiterung, Meta-Title-Update, interner Link oder Schema-Markup sein. Output: einsatzbereites HTML, noch nicht angewendet. Hier sitzt die menschliche Freigabe.
Verify. In der nächsten Woche zieht Sense erneut GSC-Daten und vergleicht die Positions-Deltas mit dem Baseline-Snapshot vom Execute-Zeitpunkt. Wenn die Position steigt, Aktion als Win markieren; fällt sie, Diff an den Operator melden. Damit schließt sich der Kreis. Ohne Gedächtnis darüber, was letzte Woche funktionierte, degeneriert der Prozess zu einem Skript.

Fast alle genannten Optionen sind innerhalb ihrer Phase austauschbar. Ausnahme: der Orchestrator. Anthropic Claude Agent SDK ist aktuell der reibungsärmste Agent-Orchestrator in Produktion; die OpenAI Assistants API funktioniert, hat aber weniger eingebaute Tool-Call-Patterns. n8n unterstützt Claude inzwischen per Chat-Modell-Integration und ist der günstigste Weg, wenn du lieber visuell baust.
| Phase | Anforderung | Off-the-Shelf | DIY |
|---|---|---|---|
| Sense | Daten-Fetch + Snapshot | GSC-API + BigQuery-Export; Ahrefs Site Audit für Site-Health | Python liest GSC-API direkt in JSON |
| Decide | Ranking-Logik mit Gedächtnis | Claude Agent SDK; OpenAI Assistants API | Custom-Prompt mit strukturiertem JSON + eigener Memory-Store |
| Plan | Gap-Analyse | Surfer SEO, Frase Outline, Clearscope Brief | Headless Browser + gpt-5.5 mit Gap-Analyse-Prompt |
| Execute | Patch-Generierung | gpt-5.5 mit Template + Voice-Kalibrierung; SEOJuice für interne Links & Decay | Gleicher gpt-5.5-Call mit manueller Nachbearbeitung |
| Verify | Positions-Tracking | AccuRanker, Wincher, Ahrefs Rank Tracker | GSC-API + Postgres-Tabelle für Delta-Historie |
Writer und Rank-Tracker zahlen die meisten Teams bereits; neu gebaut werden Orchestrator und Decide-Prompts. Der Artikel zu Automations-Tools 2025 deckt die Non-AI-Teile ab.
Fast jeder „agentic SEO“-Artikel 2026 widmet den meisten Platz dem Writer-Schritt. Doch der ist gelöst. Das Design-Problem liegt im Decide-Schritt – dort sollte dein Iterations-Budget hin.
Ein guter Decide-Schritt stellt vier Fragen, ungefähr in dieser Reihenfolge:
1. Welche Seiten haben Woche für Woche am meisten verloren? Defensive Bucket. Eine Seite, die von Position 7 auf 12 fällt und 35 % Impressions verliert, blutet. Blutung stoppen, bevor man Wachstum jagt.
2. Welche Seiten liegen in Striking Distance (Position 4–20) mit relevanten Impressions? Offensiver Bucket. Position 14 mit 6 000 Impressions bietet mehr Hebel als Position 2 mit 30 000. Ein Sprung von 14 auf 8 verdreifacht die CTR; von 2 auf 1 erhöht sie sich nur um wenige Prozentpunkte. Siehe Content-Decay-Guide für das Positions-Bracket-Framework.
3. Welche Seiten altern am schnellsten? Proxy: Monate seit letztem Refresh. Eine Seite ohne Update seit 14 Monaten verrottet eher als eine von letztem Quartal. Das Memory-Store hält die Refresh-Daten; Decide gewichtet Stale-Pages höher.
4. Welche Wettbewerberseiten sind diese Woche für unsere Keywords gestiegen? Kommt ein Wettbewerber auf Position 6, während wir auf 5 stehen, markiert der Agent sie als defensive Priorität. Dafür braucht es einen SERP-Scrape; GSC reicht nicht.
Die Vier-Signal-Version wählt in der Praxis zu 70 % dieselbe Seite wie ein erfahrener Operator. Die Abweichungen sind genau die Fälle, in denen redaktionelles Urteil den Prompt schlägt – so soll es sein.

Der konträre Teil. Die meisten Artikel lassen ihn weg, weil der Anbieter keinen Nutzen daraus zieht, wenn du erkennst, dass du keinen Agenten brauchst.
Einzelsite unter 300 Seiten. Agent ist Overkill. Ein wöchentliches 30-minütiges Looker-Studio-Review plus manuelle Refresh-Queue ist schneller und günstiger. Entscheide-Value skaliert mit Kanditatenzahl; unter 300 Seiten scannt der Operator alles in 20 Minuten. Ein einfacher Python-Cron-Job, der die Top-10 an Slack postet, reicht.
300 + Seiten auf einer Site. Agent lohnt sich. Der Decide-Schritt hat echte Arbeit und der Verify-Loop kumuliert Wissen – nach sechs Monaten kennt der Agent Muster, die ein Skript ohne Gedächtnis nie lernt.
Agentur mit fünf oder mehr Kunden. Gleiches Fazit. Der Kontext-Switch zwischen Kunden ist genau die Last, die Decide entfernt. Der Agent liest alle GSC-Daten gleichzeitig und spielt die Top 3 global aus, statt fünf Dashboards durchzuklicken.
Bau keinen Agenten, weil es spannend klingt; bau ihn, weil der Decide-Schritt sonst deinen Montag frisst. Siehe Scaling-SEO-Services und Freelance-Automation für die Cron-vs-Agent-Entscheidung bei kleinen Portfolios.

Woche 1: Kosten-Explosion. Erster Lauf kostet 4 $, der zweite 48 $, weil der Agent in eine Tool-Call-Schleife gerät. Muster: „Fetch Competitor SERP“ → Timeout → Retry → neuer Tool-Call, eine Stunde Claude Opus. Fix: harte Token-Caps, Schritt-Budget („max. 20 Tool-Calls“) und Circuit-Breaker bei 20 $.
Woche 4: halluzinierte Fakten. Der Writer erfindet eine Statistik. Der Operator merkt es nicht, weil der Absatz flüssig klingt. Seite geht live, Leser mailt – oder schlimmer, Wettbewerber postet den Screenshot. Fix: Fakt-Check-Schritt vor Freigabe, der jede Zahl gegen bekannte Quellen grept, plus Regel: Writer darf nur Zahlen aus den Input-Notes zitieren.
„Das Risiko der Automatisierung sind nicht schlechte Outputs, sondern dass man sie gar nicht mehr prüft.“ — frei nach Marie Haynes, 2025
Monat 3: stiller Guardrail-Bypass. Operator wird nachlässig, überfliegt den Diff, approved eine Seite mit schleichender Voice-Drift. Drei Monate später liest sich die Hälfte des Korpus wie KI. Fix: Reviewer rotieren, mind. 20 % der Diffs im Vier-Augen-Prinzip prüfen, Voice-Check über 90-Tage-Rollfenster. Siehe Humanising-AI-Content.
Ehrliche Monatszahlen für kleine bis mittlere Portfolios:
| Layer | Tool | Klein (~50 Seiten) | Mittel (~300 Seiten) |
|---|---|---|---|
| Orchestrator | Claude Agent SDK + Anthropic API | 20–80 $ | 200–500 $ |
| Writer | gpt-5.5 (OpenAI) | 30–80 $ | 80–200 $ |
| Rank-Tracker | AccuRanker oder Wincher | 30–50 $ | 80–150 $ |
| Workflow-Runner | n8n self-hosted auf 5 $ VPS | 5 $ | 5–15 $ |
| Daten-Layer | GSC API + BigQuery-Export | 0 $ | 0–20 $ |
| Gesamt | ~85–215 $ | ~365–885 $ |
Build-Zeit: 30–50 Arbeitsstunden für einen kompetenten Operator. Orchestrierung ist leicht; die Decide-Prompts brauchen 5–10 Iterationen. Verify-Instrumentation fliegt oft aus v1, weil der Nutzen erst ab Woche 5 sichtbar wird – bau sie trotzdem. Ohne Verify lernt Decide nichts und der Agent verkommt zum Skript.
Die v1-Version für ein 100-Seiten-Portfolio in n8n: Ein Cron-Node feuert montags 6 Uhr UTC. HTTP-Nodes holen GSC-API (7 / 28 Tage) und eine SERP-API (Brave Search oder Octoparse) für die Keywords; beide schreiben in eine Postgres-Delta-Tabelle. Ein Claude-Agent-SDK-Node bekommt die JSON-Blobs + Seiten-Inventar und liefert eine priorisierte Kandidatenliste mit Aktionsvorschlag.
Ein Switch-Node brancht nach Aktionstyp: Full-Rewrite-Kandidaten gehen in eine Slack-Freigabeschleife; Meta-Updates und interne Links < 5 Zeilen laufen ohne Freigabe. Ein HTTP-Node trifft die CMS-REST-API und wendet den Patch an (eine agent-freundliche Site stellt diese Endpunkte bereit). Ein letzter HTTP-Node schreibt Aktion, GSC-Baseline und Reviewer in Postgres für den Verify-Schritt. Rund ein Dutzend Nodes, ein Wochenende Arbeit.
Die Schleife spart den Montagmorgen, nicht die Redaktion, nicht die Strategie, nicht den Kunden-Call und nicht das Urteil über Gewichte. Der Agent ist der Analyst, der Mensch der Editor. Ohne Editor veröffentlicht die Schleife Unsinn. Kosten: 85–215 $ pro Monat, 30–50 Stunden Build-Zeit. Kleiner als die „10× skalieren“-Pitches, größer als die „in 10 Minuten“-Pitches.
Bau die Schleife, weil der Decide-Schritt sonst deinen Montag auffrisst, nicht weil „agentic“ auf einer Konferenz schick klang. Wenn du überzeugt bist, starte mit Decay-Detection und Refresh-Strategie; das Publish-Layer findest du in How to build an Agent-Friendly Website.
Plain OpenAI reicht. Die Assistants API mit strukturierten Outputs deckt das Tool-Calling-Pattern ab und kostet ähnlich. Vorteile des Claude Agent SDK sind Memory-Primitives und saubere Budget-Kontrollen, die ab ~100 Seiten zählen. Für v1 bei 50 Seiten ist OpenAI fein, Umstieg später möglich.
Etwa 300 Seiten auf einer Site oder jedes Multi-Site-Portfolio mit 5 + Kunden. Darunter tut es ein Looker-Studio-Dashboard plus Python-Cron. Decide-Value skaliert mit Kandidatenzahl; bei 50 Seiten scannt der Operator alles in 10 Minuten. Unter 300 Seiten zahlst du Agent-Preise für Cron-Verhalten.
Menschliche Freigabe vor Publish plus Voice-Consistency-Check über ein 90-Tage-Rollfenster. Erstes ist nicht verhandelbar für alles außer Meta-Title-Updates. Zweites fängt die langsame Voice-Drift ab. Mindestens 20 % der Diffs im Vier-Augen-Prinzip stichproben.
Der stille Guardrail-Bypass nach drei Monaten. Kosten-Explosion Woche 1 ist offensichtlich, Halluzinationen Woche 4 lassen sich mit Fact-Check fangen. Die Voice-Drift schleicht sich ein, weil der Operator den Diff nicht mehr liest.
Ja, mit Einschränkungen. gpt-5.5 und Claude schreiben solide Spanisch, Deutsch, Französisch, Italienisch, Niederländisch und Polnisch, aber die Voice-Kalibrierung muss pro Sprache neu. SERP-Scrape und GSC-Fetch müssen die korrekten Sprach- und Ländercodes nutzen. Für AI-Search siehe das GEO-Stück.
no credit card required