Search Engine Optimization Intermediate

User-Agent

I dati dell’user-agent aiutano a distinguere i crawler di ricerca reali dai bot falsificati, a dare priorità alle diagnosi di scansione (crawl) e a controllare come accedono al tuo sito i diversi client.

Updated Apr 04, 2026 · Available in: EN

Quick Definition

Un user-agent è l’identificativo inviato in una richiesta HTTP che indica al tuo server quale client sta effettuando la richiesta, da Chrome a Googlebot fino a GPTBot. In ambito SEO è importante perché i dati dell’user-agent guidano la verifica dei bot, l’analisi della scansione, il targeting dei robots e la gestione lato server—ma la stringa da sola non è affidabile.

User-agent è l’intestazione (header) della richiesta HTTP che identifica il client che effettua la richiesta. In ottica SEO è importante perché ti aiuta a distinguere Googlebot da Chrome, AhrefsBot da scraper casuali e l’attività di crawling legittima dal traffico di bassa qualità che spreca risorse del server.

La parte importante: la stringa è utile, ma è facile da falsificare. Considerala prima un indizio, non una prova.

Perché i SEO tengono agli user-agent

I dati dell’user-agent sono la base dell’analisi seria dei file di log. In Screaming Frog Log File Analyser, Splunk, BigQuery o anche in un export ripulito importato in Looker Studio, li usi per segmentare l’attività di crawling per tipologia di bot e per directory. Questo ti dice se Googlebot sta dedicando il 60% dei suoi hit agli URL con filtri e faccette, se Bingbot è bloccato in catene di redirect oppure se GPTBot sta “martellando” pagine che non vuoi vengano usate per l’addestramento.

Influisce anche sull’implementazione. Le direttive di robots.txt sono specifiche per user-agent. Lo sono anche molte regole di CDN e WAF in Cloudflare o Akamai. Se vuoi rallentare AhrefsBot per preservare la capacità dell’origin durante le ore di picco, oppure bloccare un crawler AI da una knowledge base privata, l’abbinamento degli user-agent è il punto di partenza.

Che cosa non è

L’user-agent non è un fattore di ranking. Google non posiziona meglio le pagine perché restituiscono qualcosa di “speciale” a un user-agent da crawler. E valgono ancora le regole sul cloaking. Se serv i contenuti sostanzialmente diversi a Googlebot rispetto a quelli che vedono gli utenti, non è una mossa di technical SEO “furba”: è un rischio di policy.

La documentazione di Google è coerente su questo da anni e John Mueller di Google ha ribadito più volte che l’identificazione dei bot non dovrebbe essere usata come scusa per mostrare ai motori di ricerca un contenuto primario diverso.

Come usarlo correttamente

  • Verifica prima di fidarti: controlla la stringa dell’user-agent e verifica l’IP tramite reverse DNS o i metodi di verifica dei crawler documentati da Google. Una stringa “finta Googlebot” è comune.
  • Segmenta i log: separa Googlebot, Googlebot-Image, Bingbot, AhrefsBot, SemrushBot e i crawler AI. Metterli tutti insieme rovina l’analisi.
  • Audit delle regole robots: verifica che il tuo robots.txt contenga direttive intenzionali per i principali crawler. Testa in Google Search Console e valida il comportamento di fetch in tempo reale nei log.
  • Usa con attenzione le regole lato server: NGINX, Apache, Cloudflare e Fastly possono tutti agire sui dati dell’user-agent. Utile per il rate limiting. Rischioso per la variazione dei contenuti.

Dove i dati si “rompono”

Questa è l’avvertenza che molti team ignorano: il reporting sugli user-agent è caotico. I bot si spoofano a vicenda. Alcuni strumenti ruotano le stringhe. Una parte del traffico passa attraverso infrastrutture condivise che rendono l’attribuzione poco chiara. Anche la verifica di Googlebot può essere gestita male se il tuo team si basa su liste IP vecchie invece che su verifiche live.

Inoltre, l’analisi degli user-agent senza file di log è debole. Google Search Console mostra statistiche di crawling, ma non lo stesso livello di dettaglio richiesta-per-richiesta che ottieni dai log grezzi. Ahrefs, Semrush e Moz possono dirti qualcosa sui loro crawler, non su ciò che ha realmente colpito il tuo server.

Usa i dati dell’user-agent per diagnosi e controllo. Non trattarli come verità assoluta senza una verifica.

Frequently Asked Questions

Un user-agent è la stessa cosa di un metodo di verifica anti-bot?
No. Una stringa di user-agent è semplicemente un identificativo dichiarato nell’header della richiesta e può essere facilmente contraffatta. Una verifica corretta significa controllare l’IP o il nome host tramite il processo di verifica del crawler documentato da Google, e non affidarsi soltanto alla stringa.
Un utente-agente (user-agent) può influenzare direttamente i ranking?
La gestione dello user-agent di per sé non comporta alcun incremento diretto del posizionamento. Il valore SEO è indiretto: migliore efficienza di scansione (crawl), diagnostiche più pulite, meno risorse sprecate e meno problemi di indicizzazione causati da comportamenti scorretti dei bot.
Dovrei bloccare i bot degli strumenti SEO come AhrefsBot o SemrushBot?
Talvolta sì. Se stanno consumando una quantità significativa di banda o stanno colpendo ambienti fragili, il rate limiting o il blocco possono essere giustificati. Lo scambio è perdere la visibilità di crawling di terze parti e dati più aggiornati su backlink o audit in Ahrefs, Semrush o Moz.
Come posso analizzare i dati dell’user-agent per la SEO?
Inizia dai log grezzi del server, quindi segmenta le richieste in base a bot verificati, codice di stato, directory e tempo di risposta. Va bene Screaming Frog Log File Analyser per dataset più piccoli; BigQuery o Splunk è meglio quando gestisci milioni di richieste al giorno.
Posso servire HTML diverso a Googlebot in base allo user-agent?
Solo entro i limiti dell’erogazione dinamica e solo se il contenuto è materialmente equivalente per utenti e crawler. Se il significato della pagina cambia, o se Googlebot riceve una versione a cui gli utenti non possono accedere, ti stai avvicinando al cloaking.
Available in other languages:

Self-Check

Stiamo verificando i principali user-agent dei crawler tramite IP o reverse DNS, oppure ci limitiamo a fidarci della stringa dell’header?

I nostri file di log mostrano che Googlebot sta utilizzando il crawl budget su URL che dovrebbero essere canonicalizzati, bloccati o messi come noindex?

Abbiamo separato i bot di ricerca, i bot degli strumenti SEO e i crawler AI in bucket di reporting diversi?

Eventuali regole di CDN o del server stanno modificando i contenuti in base all’user-agent in modi che potrebbero creare un rischio di cloaking?

Common Mistakes

❌ Fidarsi della stringa user-agent di Googlebot senza verifica dell’indirizzo IP

❌ Combinare tutto il traffico dei bot in un unico report di crawling invece di segmentarlo per tipo di crawler

❌ Utilizzare regole dell’agente utente (user-agent) per servire contenuti materialmente diversi a bot e utenti

❌ Fare affidamento solo su Google Search Console invece di convalidare il comportamento nei file di log grezzi

All Keywords

agente utente SEO dell’user-agent Agente utente di Googlebot verifica anti-bot analisi dei file di log budget di scansione user-agent di robots.txt Analizzatore dei log di Screaming Frog Statistiche di scansione di Google Search Console AhrefsBot SemrushBot blocco dei crawler AI

Ready to Implement User-Agent?

Get expert SEO insights and automated optimizations with our platform.

Get Started Free