seojuice

Le conversazioni di ChatGPT vengono indicizzate da Google

Vadim Kravcenko
Vadim Kravcenko
· Updated · 9 min read

Aggiornato a maggio 2026.

In sintesi: Le conversazioni condivise di ChatGPT sono comparse nei risultati di ricerca di Google e sono scomparse entro 24 ore. Ecco cos’è successo, cosa significa per la SEO e cosa abbiamo rilevato nei nostri dati di monitoraggio durante l’evento. Il vero punto da salvare tra i preferiti è il playbook di deindicizzazione in quattro mosse usato da OpenAI.

Meno di 24 ore fa, alcuni SEO hanno condiviso su Twitter una scoperta ingegnosa: le conversazioni pubbliche di ChatGPT in /share erano completamente indicizzabili e alcune figuravano già nella top 20 di Google per query long-tail. Sono circolati screenshot, sono spuntati post di blog e qualche opportunista ha iniziato a fare scraping delle chat per creare pagine affiliate lampo. Quando ho visto per la prima volta un URL /share in posizione 14 contro un nostro cliente, pensavo che a Google sarebbero servite settimane per reagire. Su questo mi sbagliavo, come racconto più avanti.

La mattina seguente ogni risultato /share era sparito dall’indice di Google. Se oggi digiti site:chatgpt.com/share ottieni zero risultati. OpenAI ha introdotto in rapida successione tre modifiche: un tag <meta name="robots" content="noindex">, un canonico site-wide verso l’homepage e (quasi certamente) una richiesta massiva tramite lo Strumento di rimozione URL di Google. «ChatGPT share URLs» è diventato un case study live su come deindicizzare velocemente in Google: il più pulito che abbia visto su larga scala.

L’articolo di Searchengineland (link) ha presentato l’episodio come una questione di privacy. Anche TechCrunch (link) ha seguito la stessa linea. Entrambi meritano lettura, ma sono le dinamiche SEO – soprattutto le differenze tra motori – a renderlo interessante per il nostro lavoro.

Cosa abbiamo visto nei nostri dati

Gestisco il monitoraggio SEO lato cliente in SEOJuice, quindi quando i primi report sono comparsi su Twitter ho lanciato un rapido site: search sui domini che seguiamo per capire se qualche URL /share stesse competendo. Ecco i risultati:

  • Tre domini clienti mostravano pagine /share di ChatGPT nelle stesse SERP per query long-tail. In un caso, una conversazione condivisa su «miglior CRM per agenti immobiliari» era in posizione 14 mentre il post del nostro cliente era in posizione 11: abbastanza vicino da preoccuparci.
  • La qualità dei contenuti era disomogenea. Alcune conversazioni erano davvero approfondite (l’utente aveva posto follow-up dettagliati e il thread sembrava un articolo strutturato). Altre erano mezze chat sconclusionate che non avrebbero dovuto posizionarsi per nulla.
  • Dopo la deindicizzazione: le tre pagine /share concorrenti sono scomparse, ma le posizioni dei nostri clienti non sono migliorate immediatamente. La SERP si è rimescolata nelle 48 ore successive, riempiendo gli slot con altre pagine. Togliere un concorrente non ti promuove di default: Google rivaluta tutti i candidati.

Non ho fatto in tempo a catturare lo screenshot del caso 14 vs 11 prima che sparisse; errore mio. (Lezione: fotografa subito la SERP quando vedi qualcosa di anomalo, non la mattina dopo.) Ho però l’export di Search Console che mostra gli URL concorrenti per query nei tre domini durante le 36 ore, con i riferimenti chatgpt.com/share/... presenti prima e assenti dopo.

L’episodio è stato abbastanza breve da non arrecare danni duraturi ai clienti. Ma lascia una domanda che continua a tornare: cosa succede se la prossima azienda AI non reagisce con la stessa rapidità di OpenAI? Nel nostro network i pareri erano divisi: alcuni founder erano tentati di sfruttare di nuovo la falla appena si riaprirà, altri erano sollevati che il traffico organico contasse ancora. Christopher Penn, citato nell’articolo di Searchengineland, lo ha riassunto in termini di business: «Se la chat di un competitor si posiziona per una query che tu hai guadagnato in sei mesi, quello è il problema di business. La privacy è reale, ma la SEO è la domanda che il board farà». È il frame che userei con un cliente.

Implicazioni:

  • Citation perse: Qualsiasi assistente AI o testata che citava la tua chat /share perde equity quando Google cancella la pagina.

  • Gap di visibilità AI: Gli LLM che si basano su snapshot recenti del web considerano l’indice di Google come segnale di fiducia. Niente indice, niente citazione.

  • Precipizio di traffico organico: Se Google può estrometterti dalla SERP in un solo ciclo di crawl, la tua pipeline contenuti è forte solo quanto la tua disciplina di compliance.

Quello che ieri era un growth hack oggi è un monito: se basi la strategia su scappatoie e non su fondamentali SEO solidi, la distanza tra ranking e sparizione è un semplice refresh di Google.

Perché le pagine /share sono state indicizzate

La parte più interessante sul piano tecnico-SEO è come Google scopra contenuti anche senza segnali di link tradizionali:

  1. Robots.txt a porte aperte. Al lancio della funzione «Share», il file robots.txt di ChatGPT consentiva esplicitamente il crawl di /share/ sotto User-agent: *. Per Googlebot è un invito a recuperare, renderizzare e trattare ogni conversazione condivisa come una normale pagina HTML. Probabile svista, non scelta deliberata: OpenAI era focalizzata sulla feature, non sull’impatto SEO. (Errore capitato anche a me: il nostro staging è stato indicizzato per tre settimane prima che qualcuno se ne accorgesse. Succede a tutti.)

  2. La scoperta di URL «nascosti» è più ampia di quanto si pensi. Anche senza link in entrata, Google può intercettare le pagine tramite diversi segnali passivi. La community SEO specula da anni, Google non ha mai elencato tutto. Due candidati plausibili, basati su ciò che Google ha ammesso:

    • Telemetria di Chrome. Chrome invia dati di navigazione al scheduler di crawl. La documentazione Safe Browsing conferma che gli URL visitati possono alimentare la coda di crawl. Se milioni di utenti incollano o cliccano link /share in Chrome, il segnale basta.

    • Scoperta via grafo Google più ampio. Gmail, anteprime Workspace, tracking Android intent, look-up DNS: tutti ipotizzati dagli SEO. Search Engine Journal ne parlò nel 2021; risposta di Google: «no comment». Considerateli meccanismi plausibili, non comportamento documentato.

    Morale: assenza di link interni ≠ assenza di scoperta. Google non ha bisogno del grafo di hyperlink quando il comportamento utente indica nuovi URL. Se ospiti UGC pubblici, Google probabilmente li trova attraverso canali che non hai mai auditato.

  3. Contenuti AI freschi e unici. Ogni pagina /share conteneva testo inedito, quindi l’algoritmo di freschezza di Google le ha subito valutate. Combinazione di crawl consentito e unicità ha accelerato l’indicizzazione: alcune erano live entro ore dalla prima condivisione.


Pulizia lampo di Google: la soluzione in quattro mosse

Ciò che rende l’episodio istruttivo per chi gestisce siti di grandi dimensioni è la rapidità e precisione della risposta. Ecco il playbook tecnico impiegato da OpenAI:

# Passo di mitigazione Cosa fa Perché è rapido
1 Aggiungere <meta name="robots" content="noindex"> Indica a Googlebot di continuare il crawl ma rimuovere la pagina dall’indice. Il tag viene recepito al crawl successivo, spesso entro 12 ore.
2 Impostare <link rel="canonical" href="https://chatgpt.com"> Consolida eventuali segnali residui di ranking verso l’homepage. Previene che i duplicati canonicalizzati riemergano in futuro.
3 Invio massivo allo Strumento di rimozione URL Nasconde subito gli URL per ~6 mesi mentre procede la deindicizzazione permanente. Bypassa la latenza di crawl; agisce in pochi minuti.
4 (previsto) Aggiornare robots.txt con Disallow /share/ Blocca del tutto le richieste di crawl, riducendo banda e log. Rifinitura finale; impedisce a nuovi link share di rientrare in coda.

Questo playbook (noindex + canonical + rimozione URL + robots.txt) è quello che adotterei in qualunque emergenza di deindicizzazione. L’ordine conta: prima il noindex, perché è il segnale più veloce; poi il canonico; quindi lo Strumento di rimozione per far «sparire oggi»; infine robots.txt, perché mettere Disallow prima che il noindex sia stato letto impedirebbe a Google di recrawlarlo (errore comune). Ho eseguito una variante per un cliente SaaS che aveva pubblicato per errore 4.000 ticket interni: la maggior parte degli URL indicizzati sparì in 28 ore.

Perché Google ha reagito in 24 ore

  • Priorità ai big brand: Domini ad alta autorità vengono crawlati più di frequente, quindi le direttive propagano in fretta. Se chatgpt.com parla, Google ascolta.

  • Spinta manuale: OpenAI ha quasi certamente usato «Recupera come Google» in Search Console per forzare il refresh dopo l’aggiunta dei tag. Non so quale fix sia stato deployato per primo; il noindex è quello che ho visto live per primo.

  • Evitare penalità automatiche: I sistemi antispam di Google penalizzano contenuti thin o UGC incontrollato; OpenAI doveva neutralizzare il rischio prima di una demozione site-wide.

Il post-sbronza da un milione di URL su Bing

Il playbook di pulizia di OpenAI si è fermato a Google Search Console. Di conseguenza, Bing mostra ancora circa un milione di pagine /share, un’espansione silenziosa di conversazioni ChatGPT invisibili su Google. Il numero esatto oscilla (il conteggio di site: di Bing è ballerino) ma l’ordine di grandezza resta ben diverso dallo zero di Google.

Ricordi il tag noindex del playbook? Bing non aveva ancora recrawlato per vederlo. Ho controllato le stesse tre query cliente in cui le pagine /share competevano su Google e ho trovato che su Bing erano ancora in ranking una settimana dopo. Pensavo che Bing rispecchiasse Google; non l’ha fatto. La disparità evidenzia tre differenze strutturali tra i motori:

  1. Latenza crawl-to-index. Googlebot torna sui domini autorevoli in ore; Bingbot spesso in giorni. Quando OpenAI ha inserito noindex e canonical, Google ha recrawlato in fretta, Bing no.

  2. Mancato intervento BWT. Tutto fa pensare che OpenAI non abbia usato Bing Webmaster Tools, quindi Bingbot seguiva ancora l’«Allowed» originale finché non arrivava il suo turno naturale.

  3. Storica lentezza. Non è nuovo, anche se devo ammorbidire questo passaggio: l’incidente favicon-URL del 2021 e il caso font-CSS dell’anno scorso mostrarono Bing mantenere URL purgati da Google, ma non ho fonti primarie pulite da citare. Trattatelo come lore di community.

Conclusione pratica: Se dipendi dal traffico Bing o da citazioni ChatGPT che si appoggiano all’indice Bing, usa dashboard doppie. Invia richieste di rimozione/recrawl sia in Search Console sia in Bing Webmaster Tools. «Risolto su Google» non significa «risolto ovunque».

Perché su Bing dominano i risultati /share non in inglese

Un effetto collaterale della lentezza di Bing: le pagine rimaste sono per lo più in lingue non inglesi e alfabeti non latini – giapponese, russo, arabo, thai. L’ho notato perché un nostro cliente ha un sottodominio in giapponese e vedeva più pagine /share concorrenti su Bing JP che su Bing US. Tre fattori spiegano il bias:

  1. Slice regionali aggiornate più lentamente. Bing partiziona l’indice per locale: il segmento US-EN si aggiorna più spesso, le lingue periferiche possono attendere una settimana o più.

  2. Prioritizzazione dei cluster duplicati. L’algoritmo di deduplica di Bing mantiene un URL per cluster canonical. Quando le versioni inglesi sono sparite da Google e hanno perso equity, Bing ha promosso varianti non inglesi ancora dotate di segnali di engagement.

  3. Disparità tra serving e indexing. Bing può marcare un URL come «deindicizzato» internamente ma servirlo comunque in mercati a bassa competizione finché non avviene il deploy completo successivo.

Insight di ottimizzazione: Per i siti multilingua, rollout direttivi scaglionati (prima EN, poi JP) possono creare finestre di contenuto duplicato. Meglio distribuire noindex e canonical globalmente e verificare la rimozione in ogni data-center locale con controlli SERP via VPN. Ora è nel mio checklist post-deploy.

FAQ

D1. Le conversazioni condivise di ChatGPT sono ancora indicizzate da Google?
No. Alla data del cleanup descritto sopra, gli URL /share non sono più indicizzati da Google. Un site:chatgpt.com/share restituisce zero risultati. OpenAI ha implementato tag noindex, canonico site-wide e rimozione bulk. Bing mostra ancora ~1 milione di URL, numero in calo settimana dopo settimana.

D2. Posso rendere privata la mia condivisione ChatGPT?
Sì. All’interno di ChatGPT apri la conversazione, clicca «Share» e troverai l’opzione per eliminarla o annullare la condivisione. Il tag noindex copre anche i vecchi link, quindi non ricompariranno su Google. Se la versione cache appare ancora, puoi chiederne la rimozione tramite lo Strumento per contenuti obsoleti di Google.

D3. Perché Google ha deindicizzato così in fretta?
Tre motivi: dominio ad alta autorità che Googlebot recrawla in ore, OpenAI ha lanciato tutte e tre le misure di deindicizzazione in contemporanea, e Google dispone di sistemi automatici che intervengono rapidamente su contenuti thin o UGC in scala. Il playbook in quattro passi spiega la velocità.

D4. La deindicizzazione delle chat danneggia la SEO dei siti che le linkavano?
Marginalmente. I link verso un URL ora deindicizzato si comportano come link verso un 404 o un noindex: perdono equity e il destinatario perde valore di citazione. Se avevi linkato un /share, sostituiscilo con uno screenshot o una citazione corretta: il link è zavorra.

D5. Cosa fare se la pagina /share di un competitor supera il mio contenuto?
Prima verifica che sia ancora in ranking (cerca, non affidarti allo snapshot di una settimana fa). Se sì, segnala l’URL tramite il Modulo di segnalazione spam di Google come contenuto thin/UGC e documenta tutto. Poi migliora la tua pagina: aggiorna il contenuto, amplia la copertura, aggiungi link interni. Togliere il competitor non ti promuove automaticamente: Google rivaluta l’intera SERP.

La vera lezione

La storia di ChatGPT /share è un esempio nitido di quanto velocemente Google possa agire quando un grande brand ha bisogno di far sparire URL. È anche un promemoria che lo stesso playbook (noindex + canonical + URL Removal Tool + robots.txt, in quest’ordine) è quello da eseguire se succede a te. Salva la tabella.

E tieni d’occhio il lato multi-motore. Google ha ripulito in una notte, ma il milione di URL residui su Bing ricorda che «risolto qui» raramente significa «risolto ovunque», specie tra lingue e slice regionali.

Vuoi scoprire quando URL generati da AI o condivisi dagli utenti iniziano a competere con le tue pagine? SEOJuice monitora gli URL concorrenti (inclusi i /share delle piattaforme AI) sulle tue keyword cruciali, segnala i nuovi ingressi in SERP e ti indica quali vale la pena deindicizzare o superare. Provalo gratis, senza carta di credito.

Letture correlate:

Image