Search Engine Optimization Intermediate

User-Agent

User-Agent-Daten helfen dabei, echte Suchcrawler von vorgetäuschten Bots zu unterscheiden, die Crawl-Diagnosen zu priorisieren und zu steuern, wie verschiedene Clients auf Ihre Website zugreifen.

Updated Apr 04, 2026 · Available in: EN

Quick Definition

Ein User-Agent ist der Bezeichner, der in einer HTTP-Anfrage mitgesendet wird und Ihrem Server mitteilt, welcher Client die Anfrage stellt – von Chrome bis hin zu Googlebot oder GPTBot. In der SEO ist das relevant, weil User-Agent-Daten die Bot-Verifizierung, die Crawl-Analyse, die robots-targeting und die serverseitige Verarbeitung steuern – aber die Zeichenkette allein ist nicht zuverlässig.

User-Agent ist der HTTP-Request-Header, der den anfragenden Client identifiziert. Für SEO ist das relevant, weil du damit Googlebot von Chrome trennen kannst, AhrefsBot von zufälligen Scrapers und legitime Crawl-Aktivität von lästigem Traffic, der Serverressourcen verschwendet.

Das Entscheidende: Die Zeichenfolge ist hilfreich, aber leicht zu fälschen. Betrachte sie zunächst als Hinweis und nicht als Beweis.

Warum SEOs sich für User-Agents interessieren

User-Agent-Daten sind das Rückgrat einer ernsthaften Analyse von Logdateien. In Screaming Frog Log File Analyser, Splunk, BigQuery oder sogar in einem bereinigten Export in Looker Studio nutzt du sie, um Crawl-Aktivität nach Bot-Typ und Verzeichnis zu segmentieren. So erkennst du, ob Googlebot 60% seiner Treffer auf URLs mit Facetten ausgibt, ob Bingbot in Redirect-Ketten feststeckt oder ob GPTBot Seiten mit hoher Intensität anfragt, die du für Trainingszwecke nicht verwenden lassen willst.

Außerdem beeinflusst das die Umsetzung. Robots.txt-Direktiven sind user-agent-spezifisch. Das gilt auch für viele CDN- und WAF-Regeln in Cloudflare oder Akamai. Wenn du AhrefsBot in Spitzenzeiten ausbremsen willst, um die Kapazität beim Origin-Server zu schonen, oder einen KI-Crawler von einer privaten Wissensdatenbank blockieren möchtest, beginnt das beim User-Agent-Matching.

Was es nicht ist

User-Agent ist kein Ranking-Faktor. Google bewertet Seiten nicht besser, nur weil sie für einen User-Agent eines Crawl-Clients etwas „Besonderes“ zurückgeben. Und Cloaking-Regeln gelten weiterhin. Wenn du Googlebot mit materiell anderen Inhalten belieferst als die Nutzer sehen, ist das kein cleverer technischer SEO-Schachzug. Es ist ein Risiko hinsichtlich der Richtlinien.

Googles Dokumentation ist hier seit Jahren konsistent, und Googles John Mueller hat wiederholt bestätigt, dass die Bot-Identifikation nicht als Ausrede dienen darf, Suchmaschinen andere primäre Inhalte zu zeigen.

So nutzt du es richtig

  • Prüfen, bevor du vertraust: Prüfe die User-Agent-Zeichenfolge und verifiziere die IP über Reverse DNS oder über Googles dokumentierte Methoden zur Crawlers-Verifizierung. Eine gefälschte Googlebot-Zeichenfolge ist häufig.
  • Logdaten segmentieren: Trenne Googlebot, Googlebot-Image, Bingbot, AhrefsBot, SemrushBot und KI-Crawler jeweils separat. Das Zusammenwerfen ruiniert die Analyse.
  • Robots-Regeln prüfen: Stelle sicher, dass deine robots.txt gezielte Direktiven für die wichtigsten Crawler enthält. Teste in der Google Search Console und validiere das tatsächliche Fetch-Verhalten anhand der Logs.
  • Serverregeln mit Bedacht einsetzen: NGINX, Apache, Cloudflare und Fastly können alle anhand von User-Agent-Daten reagieren. Gut für Rate Limiting. Riskant für Inhaltsvariationen.

Wo die Daten auseinanderlaufen

Das ist der Hinweis, den die meisten Teams überspringen: Das Reporting mit User-Agents ist unübersichtlich. Bots fälschen sich gegenseitig. Einige Tools rotieren die Zeichenfolgen. Ein Teil des Traffics läuft über gemeinsam genutzte Infrastruktur, was die Zuordnung verwaschen kann. Selbst die Googlebot-Verifizierung kann schiefgehen, wenn sich dein Team auf alte IP-Listen statt auf Live-Verifizierung verlässt.

Außerdem ist eine User-Agent-Analyse ohne Logdateien nur eingeschränkt belastbar. Google Search Console zeigt Crawl-Statistiken, aber nicht in derselben Detailtiefe Anfrage für Anfrage, wie man sie aus Roh-Logs erhält. Ahrefs, Semrush und Moz können dir Informationen über ihre eigenen Crawler geben, aber nicht darüber, was tatsächlich deinen Server erreicht hat.

Nutze User-Agent-Daten für Diagnose und Steuerung. Behandle sie nicht als belastbare Wahrheit, ohne sie zu verifizieren.

Frequently Asked Questions

Ist ein User-Agent das Gleiche wie eine Bot-Verifizierungsmethode?
Nr. Eine User-Agent-String ist lediglich ein angegebener Identifikator im Request-Header, und er lässt sich leicht fälschen. Eine korrekte Verifizierung bedeutet, die IP-Adresse oder den Hostnamen anhand des von Google dokumentierten Verfahrens zur Crawler-Verifizierung zu prüfen, und sich nicht allein auf den String zu verlassen.
Kann der User-Agent die Rankings direkt beeinflussen?
Durch die Behandlung des User-Agents selbst entsteht kein direkter Ranking-Boost. Der SEO-Nutzen ist indirekt: eine bessere Crawl-Effizienz, aussagekräftigere und sauberere Diagnosen, weniger verschwendete Ressourcen und weniger Indexierungsprobleme, die durch Fehlverhalten von Bots verursacht werden.
Sollte ich SEO-Tool-Bots wie AhrefsBot oder SemrushBot blockieren?
Manchmal ja. Wenn sie erhebliche Bandbreite verbrauchen oder auf anfälligen Umgebungen aufsetzen, kann eine Ratenbegrenzung oder das Blockieren durchaus gerechtfertigt sein. Der Preis dafür ist der Verlust der Drittanbieter-Crawl-Transparenz sowie aktuellerer Backlink- oder Audit-Daten in Ahrefs, Semrush oder Moz.
Wie analysiere ich User-Agent-Daten für SEO?
Starte mit den Roh-Serverlogs und segmentiere dann Anfragen nach verifiziertem Bot, HTTP-Statuscode, Verzeichnis und Antwortzeit. Screaming Frog Log File Analyser ist für kleinere Datensätze in Ordnung; BigQuery oder Splunk ist besser, sobald du mit Millionen von Anfragen pro Tag zu tun hast.
Kann ich Googlebot je nach User-Agent mit unterschiedlichem HTML versorgen?
Nur innerhalb der Grenzen des dynamischen Ausspielens und nur dann, wenn der Inhalt für Nutzer und Crawler materiell gleichwertig ist. Wenn sich die Seitenaussage ändert oder wenn Googlebot eine Version erhält, auf die Nutzer nicht zugreifen können, bist du dem Cloaking bereits sehr nahe.
Available in other languages:

Self-Check

Prüfen wir die wichtigsten Crawler-User-Agents anhand der IP-Adresse oder des Reverse-DNS, oder verlassen wir uns nur auf den Header-String?

Zeigen unsere Logdateien, dass der Googlebot sein Crawl-Budget für URLs aufwendet, die stattdessen kanonisiert, blockiert oder auf „noindex“ gesetzt werden sollten?

Haben wir die Such-Bots, SEO-Tool-Bots und KI-Crawler in unterschiedliche Auswertungsgruppen getrennt?

Ändern sich Inhalte durch CDN- oder Server-Regeln abhängig vom User-Agent in einer Weise, die ein Cloaking-Risiko auslösen könnte?

Common Mistakes

❌ Eine Googlebot-User-Agent-String ohne IP-Verifizierung als vertrauenswürdig einstufen

❌ Kombinieren des gesamten Bot-Traffics in einem einzigen Crawl-Report statt einer Aufteilung nach Crawling-Typ

❌ Mit User-Agent-Regeln materiell unterschiedliche Inhalte für Bots und Nutzer ausspielen

❌ Sich allein auf die Google Search Console verlassen, statt das Verhalten anhand von Roh-Logdateien zu validieren

All Keywords

User-Agent User-Agent-SEO Googlebot-User-Agent Bot-Verifizierung Protokolldateianalyse Crawl-Budget robots.txt „User-Agent“ Screaming-Frog-Logdatei-Analysator Google Search Console-Crawlingstatistiken AhrefsBot SemrushBot KI-Crawler-Blockierung

Ready to Implement User-Agent?

Get expert SEO insights and automated optimizations with our platform.

Get Started Free