TL;DR: Sì, per qualche ora le chat di ChatGPT sono state indicizzate da Google. Le conversazioni condivise di ChatGPT sono apparse nei risultati di ricerca, poi sono sparite nel giro di 24 ore. Ecco cos'è successo, cosa significa per la SEO e cosa abbiamo visto nei nostri dati di monitoraggio mentre succedeva.
Meno di 24 ore fa, i SEO più attenti stavano condividendo una scoperta piuttosto notevole: le conversazioni pubbliche /share di ChatGPT potevano essere indicizzate senza ostacoli, e alcune stavano già comparendo nella top 20 di Google per query long-tail. La scoperta sembrava una specie di alchimia digitale: contenuti istantanei, autorevoli, che non dovevi nemmeno scrivere tu. Hanno iniziato a circolare screenshot su Twitter, sono spuntati post sui blog, e qualche opportunista ha persino iniziato a fare scraping delle chat per pubblicare in fretta pagine affiliate.
Poi è arrivato il colpo.
La mattina dopo, ogni risultato /share era sparito dall'indice di Google. Se oggi digiti site:chatgpt.com/share, vedrai zero risultati. OpenAI ha rilasciato in silenzio tre modifiche in rapida successione: <meta name="robots" content="noindex">, un tag canonical impostato su tutto il sito verso la homepage e, con ogni probabilità, una richiesta massiva tramite il Google URL Removal Tool. Le URL share di ChatGPT sono diventate un caso di studio in tempo reale su quanto velocemente Google possa deindicizzare.
Stavamo monitorando tutto in tempo reale su SEOJuice. Quando le prime segnalazioni sono comparse su Twitter, ho fatto un controllo rapido sui siti dei nostri clienti per vedere se qualche URL /share stesse comparendo come pagina concorrente. Ecco cosa abbiamo trovato:


/share che apparivano nelle stesse SERP per query long-tail. In un caso, una conversazione condivisa di ChatGPT su "best CRM for real estate agents" era posizionata #14 per una query in cui il post del blog del nostro cliente era #11. Abbastanza vicino da destare preoccupazione./share concorrenti sono sparite, ma le posizioni dei nostri clienti non sono migliorate subito. La SERP si è rimescolata nelle 48 ore successive, con altre pagine che hanno occupato quegli slot. È un promemoria utile: togliere un concorrente dalla SERP non ti fa salire automaticamente — Google rivaluta tutti i candidati.L'episodio è stato abbastanza breve da non causare danni duraturi a nessuno. Però ha sollevato una domanda a cui continuo a tornare: cosa succede quando la prossima azienda AI non reagisce con la stessa rapidità di OpenAI?
Un sondaggio lampo su 225 fondatori ha fotografato bene il cambio di umore:
| Opzione del sondaggio | Voti | Conclusione |
|---|---|---|
| Sì — vale il rischio | 28.9 % | Quasi un terzo si giocherebbe comunque la carta di scorciatoie black-hat, anche dopo aver visto siti vaporizzati da un giorno all'altro. |
| No — mi serve il traffico SEO | 40.4 % | I pragmatici che sanno che l'organico è la loro ancora di salvezza. |
| Aspetta… distruggere la mia SEO? | 24.9 % | I nuovi arrivati scioccati che stanno scoprendo cosa significa davvero essere deindicizzati. |
| Cosa sono i backlink? | 5.8 % | I beatamente inconsapevoli — finché non tocca a loro. |
La posta in gioco non potrebbe essere più chiara:
Citazioni perse: qualsiasi assistente AI o testata che abbia citato la tua chat /share perde la link equity nel momento in cui Google cancella la pagina.
Gap di visibilità AI: gli LLM addestrati su snapshot recenti del web considerano l'indice di Google come un segnale di fiducia. Niente indice, niente citazione.
Crollo del traffico organico: se Google può comunque toglierti dalla SERP in un singolo ciclo di scansione, allora la tua macchina dei contenuti è solida solo quanto il tuo rigore nel rispettare le regole.
L'"hack" di crescita di ieri è diventato il monito di oggi — la prova che quando ti affidi alle falle del sistema invece che a fondamentali SEO duraturi, la distanza tra posizionarti e sparire è solo un refresh di Google.
Questa è la parte che trovo più interessante dal punto di vista della SEO tecnica, perché mostra come Google scopre e indicizza contenuti anche senza i segnali di link tradizionali:
Robots.txt lasciava la porta spalancata
Quando ChatGPT ha lanciato la funzione pubblica "Share", il suo file robots.txt consentiva esplicitamente la scansione di /share/ sotto User-agent: *. Per Googlebot è un via libera a recuperare la pagina, eseguirne il rendering e trattare ogni conversazione condivisa come una normale pagina HTML. Probabilmente è stata una svista più che una scelta deliberata — OpenAI era concentrata sulla funzione di condivisione, non sulle implicazioni SEO. (Ho fatto errori simili. Il nostro ambiente di staging è rimasto indicizzabile per tre settimane prima che qualcuno se ne accorgesse. Succede.)
L'arsenale di Google per scoprire URL nascosti
Anche se nessun sito linkava quelle pagine, Google può comunque scoprirle attraverso canali indiretti che la community SEO chiama "canali laterali di Google".
Suggerimenti URL di Chrome — quando milioni di utenti incollano un link /share nella barra degli indirizzi o lo aprono da ChatGPT, la telemetria di Chrome invia campioni anonimi di URL ai sistemi che pianificano la scansione di Google.
Risolutore di link di Android — ogni tap su un URL /share dentro un'app Android genera un intent registrato dalla diagnostica di Play-services.
Scansioni di Gmail & Workspace — le chat condivise inviate via email tra colleghi vengono analizzate per il phishing; gli URL considerati innocui entrano nella coda di scansione.
Euristiche Public DNS & QUIC — un alto volume di query DNS per la stessa sottodirectory segnala che questa sezione del sito è rilevante.
Il risultato netto è questo: il fatto che non ci siano link interni non significa che Google non le scopra. Google non ha bisogno del classico grafo dei link quando è il comportamento degli utenti a indicare nuovi URL. E questo ha implicazioni che vanno ben oltre ChatGPT — se sul tuo sito hai contenuti generati dagli utenti accessibili pubblicamente, Google probabilmente li sta trovando tramite canali che non hai nemmeno considerato.
I contenuti generati dall'AI sembrano freschi e unici
Ogni pagina /share conteneva testo nuovo, non duplicato altrove, quindi il classificatore di freschezza di Google gli ha assegnato valore immediato. La combinazione di scansione consentita e contenuto unico ha accelerato l'ingresso di queste pagine nell'indice live — alcune nel giro di ore dalla prima condivisione.
Quello che rende questo episodio istruttivo per chiunque gestisca un sito grande è la velocità e la precisione della risposta. Ecco il playbook tecnico usato da OpenAI:
| # | Step di mitigazione | Cosa fa | Perché funziona in fretta |
|---|---|---|---|
| 1 | Aggiungere <meta name="robots" content="noindex"> |
Dice a Googlebot di continuare la scansione ma di rimuovere la pagina dall'indice. | Il tag viene rispettato alla scansione successiva — spesso in < 12 h. |
| 2 | Impostare <link rel="canonical" href="https://chatgpt.com"> |
Consolida eventuali segnali di ranking residui verso la homepage. | Impedisce che duplicati canonicalizzati riappaiano più avanti. |
| 3 | Invio massivo al Google URL Removal Tool | Nasconde gli URL dai risultati immediatamente per ~6 mesi mentre procede la deindicizzazione permanente. | Aggira la latenza della scansione; agisce in pochi minuti. |
| 4 (atteso) | Aggiornare robots.txt con Disallow su /share/ |
Blocca del tutto le richieste di scansione, riducendo banda e rumore nei log. | La rifinitura finale; garantisce che i nuovi link share non rientrino più in coda. |
Questo playbook in quattro step — noindex + canonical + URL removal + robots.txt — vale la pena salvarlo. Se ti capita di dover deindicizzare rapidamente una grossa sezione del tuo sito (dopo una fuga dallo staging, una pubblicazione accidentale o un'esplosione di contenuti generati dagli utenti), è l'approccio più veloce disponibile. Abbiamo usato un playbook simile per tre emergenze di clienti nell'ultimo anno, e in modo piuttosto costante gli URL indicizzati spariscono entro 24-48 ore.
Priorità ai grandi brand: i domini ad alta autorità vengono scansionati più spesso, quindi le modifiche alle direttive si propagano più rapidamente. Quando chatgpt.com dice qualcosa a Google, Google ascolta in fretta.
Spinta manuale: OpenAI ha quasi certamente attivato "Fetch as Google" in Search Console per forzare il refresh delle pagine critiche dopo il rilascio dei nuovi tag.
Evitare penalizzazioni automatiche: i sistemi anti-spam di Google penalizzano contenuti thin o user-generated che scalano senza controllo; OpenAI aveva un forte incentivo a neutralizzare il rischio prima che scattasse una demotion site-wide.
Questa è la parte che molti saltano: non serve per forza una rete di link interni perfetta perché una URL finisca nell'indice. Se Google vede abbastanza segnali di scoperta e trova una pagina accessibile, può muoversi molto più in fretta di quanto la maggior parte dei team immagini.
Nel caso di ChatGPT, la combinazione era quasi ideale per un'indicizzazione rapida: URL pubbliche, scansione consentita, contenuti unici e un volume enorme di utenti che condividevano e aprivano quelle pagine. In pratica, il sistema stava dicendo a Google: "qui c'è qualcosa che vale la pena controllare".
È anche il motivo per cui questo episodio non riguarda solo OpenAI. Se gestisci forum, pagine profilo, knowledge base generate dagli utenti o qualsiasi sezione pubblica creata in automatico, dovresti dare per scontato che Google possa scoprirla anche prima che tu abbia messo ordine a link interni, canonical e direttive robots. (Sì, è un po' inquietante. Sì, succede più spesso di quanto si ammetta.)
Il playbook di pulizia di OpenAI si è fermato a Google Search Console. Di conseguenza, Bing mostra ancora ~1 milione di pagine /share nei suoi risultati — una città fantasma digitale di conversazioni ChatGPT che ora sono invisibili su Google.
Qui la storia diventa interessante da una prospettiva SEO multi-engine. Abbiamo controllato le stesse tre query dei clienti che avevano pagine /share concorrenti su Google e abbiamo visto che su Bing quelle pagine continuavano a posizionarsi anche una settimana dopo. Questa differenza mette in evidenza tre differenze strutturali tra i motori:
Latenza tra scansione e indice — Googlebot torna sui domini ad alta autorità nel giro di ore; Bingbot spesso impiega giorni. Quando OpenAI ha inserito noindex e canonical, Google ha riscansionato in fretta e ha obbedito. Bing semplicemente non aveva ancora smaltito l'arretrato.
Assenza di intervento via BWT — tutto lascia pensare che OpenAI abbia saltato Bing Webmaster Tools, quindi Bingbot continuava a seguire la direttiva originale "Allowed" fino a quando il suo ritmo naturale non ha intercettato i cambiamenti.
Pattern storico di ritardo — non è una novità. Nel 2021 Bing continuava a mostrare URL favicon di WordPress settimane dopo che erano stati rimossi da Google, e l'anno scorso ha indicizzato una directory font-CSS trapelata che Google aveva ignorato. La flotta di bot più piccola di Bing e la sua finestra di aggiornamento più conservativa lo rendono incline a vere e proprie sbornie di indicizzazione quando un sito molto visibile cambia direttive all'improvviso.
Conclusione pratica: se dipendi dal traffico di Bing — o dalle citazioni in ChatGPT che si appoggiano all'indice di Bing — tieni dashboard separate. Invia richieste di rimozione o recrawl sia in Search Console sia in Bing Webmaster Tools. Dopo questo incidente, lo abbiamo inserito come step standard nel nostro playbook di deindicizzazione d'emergenza, perché ci ha ricordato nel modo più diretto possibile che "risolto su Google" non significa "risolto ovunque".
/share non in inglese dominano su BingUn effetto collaterale curioso del ritardo di Bing: le pagine /share sopravvissute sono in larga parte risultati non in inglese e in alfabeti non latini — giapponese, russo, arabo, thai. Ce ne siamo accorti perché uno dei nostri clienti ha un sottodominio in lingua giapponese e stava vedendo più pagine /share concorrenti su Bing JP che su Bing US. Ci sono tre fattori che spiegano questo bias:
Le partizioni regionali dell'indice si aggiornano più lentamente — Bing partiziona il suo indice per locale. Le partizioni US-EN ad alto traffico vengono aggiornate più in fretta; quelle linguistiche periferiche possono aspettare una settimana o più prima di eliminare pagine con noindex.
Prioritizzazione dei cluster di duplicati — l'algoritmo di deduplicazione di Bing mantiene un URL per cluster canonical. Quando le versioni inglesi sono sparite da Google e hanno perso interlink equity, Bing ha spostato peso verso varianti non inglesi uniche che conservavano ancora segnali di engagement utente.
Differenza tra visualizzazione e indicizzazione — Bing può segnare internamente un URL come "deindicizzato" ma continuare comunque a mostrarlo nei risultati in mercati o lingue a bassa concorrenza fino al successivo ciclo completo di rilascio.
Indicazione pratica di ottimizzazione: per i siti multilingua, un'applicazione graduale delle direttive (per esempio prima EN, poi JP) può creare finestre involontarie di contenuto duplicato. L'approccio più sicuro è distribuire aggiornamenti noindex e canonical a livello globale, poi verificare la rimozione in ogni data center locale con controlli SERP via VPN. Lo abbiamo aggiunto alla nostra checklist post-rilascio.
Letture correlate:

no credit card required