TL;DR: Las conversaciones compartidas de ChatGPT aparecieron en los resultados de búsqueda de Google y luego desaparecieron en menos de 24 horas. Aquí explico qué pasó, qué significa para el SEO y qué vimos en nuestros propios datos de monitoreo mientras se desarrollaba todo.
Hace menos de 24 horas, varios SEOs con buen ojo empezaron a compartir un hallazgo bastante ingenioso: las conversaciones públicas de ChatGPT en /share eran totalmente indexables, y algunas ya estaban apareciendo en el top 20 de Google para consultas long-tail. El hallazgo parecía pura alquimia digital: contenido instantáneo, con señales de autoridad, que ni siquiera tenías que escribir. Empezaron a circular capturas en X, salieron posts de blog, y unos cuantos oportunistas incluso comenzaron a extraer contenido de esos chats para montar páginas de afiliados a toda velocidad.
Y luego cayó el martillo.
A la mañana siguiente, todos los resultados de /share habían desaparecido del índice de Google. Si hoy escribes site:chatgpt.com/share, verás cero resultados. OpenAI lanzó discretamente tres cambios en rápida sucesión: <meta name="robots" content="noindex">, una etiqueta canonical a nivel de sitio apuntando a la página de inicio y, muy probablemente, una solicitud masiva mediante la herramienta de retirada de URLs de Google. Las URL compartidas de ChatGPT se convirtieron en un caso real de retirada ultrarrápida del índice en Google.
Estábamos monitoreando esto en tiempo real en SEOJuice. Cuando aparecieron los primeros reportes en X, hice una revisión rápida en los sitios de nuestros clientes para ver si alguna URL de /share estaba apareciendo como página competidora. Esto fue lo que encontramos:


/share apareciendo en las mismas SERPs para consultas long-tail. En un caso, una conversación compartida de ChatGPT sobre "best CRM for real estate agents" aparecía en la posición 14 para una consulta donde el post del blog de nuestro cliente estaba en la 11. Eso ya estaba demasiado cerca como para ignorarlo./share desaparecieron, pero las posiciones de nuestros clientes no mejoraron de inmediato. La SERP se reacomodó durante las siguientes 48 horas, y otras páginas ocuparon esos espacios. Es un buen recordatorio de que sacar a un competidor de la SERP no te promociona automáticamente a ti: Google vuelve a evaluar a todos los candidatos.El episodio duró tan poco que nadie sufrió daños duraderos. Pero dejó una pregunta que no dejo de hacerme: ¿qué pasa cuando la próxima empresa de IA no reacciona tan rápido como OpenAI?
Una encuesta rápida entre 225 fundadores capturó perfectamente ese cambio de ánimo:
| Opción de la encuesta | Votos | Lectura clave |
|---|---|---|
| Sí — vale la pena el riesgo | 28.9 % | Casi un tercio se la jugaría con atajos de sombrero negro, incluso después de ver sitios borrados de un plumazo de la noche a la mañana. |
| No — necesito tráfico SEO | 40.4 % | Los pragmáticos que saben que el orgánico es su salvavidas. |
| Espera… ¿borrar mi SEO? | 24.9 % | Recién llegados en shock al descubrir lo que realmente significa quedar fuera del índice. |
| ¿Qué son los backlinks? | 5.8 % | Los felizmente inconscientes — hasta que les toca a ellos. |
Lo que está en juego no podría estar más claro:
Citas perdidas: Cualquier asistente de IA o medio que haya citado tu chat de /share pierde esa autoridad de enlace una vez que Google borra la página del índice.
Brecha de visibilidad en IA: Los LLM entrenados con capturas recientes de la web toman el índice de Google como señal de confianza. Sin índice, no hay cita.
Precipicio de tráfico orgánico: Si Google puede sacarte de la SERP en un solo ciclo de rastreo, entonces tu flujo de contenidos es tan sólido como tu disciplina de cumplimiento.
El "hack" de crecimiento de ayer se convirtió en la advertencia de hoy: una prueba de que, cuando dependes de resquicios en lugar de fundamentos sólidos de SEO, la distancia entre aparecer y desaparecer está a solo una nueva pasada de Google.
Esta es la parte que me parece más interesante desde una perspectiva de SEO técnico, porque muestra cómo Google descubre e indexa contenido incluso sin señales tradicionales de enlaces:
Robots.txt dejó la puerta completamente abierta
Cuando ChatGPT lanzó la función pública de "Share", su archivo robots.txt permitía explícitamente el rastreo de /share/ bajo User-agent: *. Para Googlebot, eso es luz verde para solicitar, renderizar y considerar cada conversación compartida como una página HTML normal. Lo más probable es que haya sido un descuido y no una decisión deliberada: OpenAI estaba concentrado en la función de compartir, no en sus implicaciones SEO. (Yo he cometido errores parecidos. Nuestro entorno de staging estuvo indexable durante tres semanas antes de que alguien se diera cuenta. Pasa.)
El arsenal de Google para descubrir URLs ocultas
Incluso si ningún sitio enlazaba a esas páginas, Google todavía podía encontrarlas a través de canales pasivos de datos que la comunidad SEO suele llamar canales laterales de Google.
Indicaciones de URL desde Chrome — cuando millones de usuarios pegan un enlace de /share en la barra de direcciones o hacen clic dentro de ChatGPT, la telemetría de Chrome alimenta el sistema de programación de rastreo de Google con muestras anonimizadas de URLs.
Resolución de enlaces en Android — cualquier toque sobre una URL de /share dentro de una app Android genera una intención de apertura que queda registrada en los registros de diagnóstico de Google Play Services.
Escaneos de Gmail & Workspace — los chats compartidos enviados por email entre colegas se escanean por phishing; las URLs consideradas benignas entran en la cola de rastreo.
Heurísticas de DNS público & QUIC — un volumen alto de búsquedas DNS para el mismo subdirectorio le indica a Google que "esta ruta importa".
La conclusión es esta: No tener enlaces internos no equivale a no ser descubierto. Google no necesita un grafo de hipervínculos cuando el propio comportamiento de los usuarios le está señalando nuevas URLs. Y esto va mucho más allá de ChatGPT: si tienes cualquier tipo de contenido generado por usuarios en tu sitio y es accesible públicamente, Google probablemente lo está encontrando por canales que ni siquiera has considerado.
El contenido generado por IA parece fresco y único
Cada página de /share contenía texto nuevo que no estaba duplicado en otro lugar, así que el clasificador de frescura de Google le asignó valor inmediato. La combinación de rastreo Allowed y contenido único aceleró la entrada de esas páginas al índice activo; algunas lo lograron en cuestión de horas desde que fueron compartidas por primera vez.
Lo que hace que este episodio sea tan útil para cualquiera que gestione un sitio grande es la velocidad y la precisión de la respuesta. Este es el playbook técnico que usó OpenAI:
| # | Paso de mitigación | Qué hace | Por qué funciona rápido |
|---|---|---|---|
| 1 | Añadir <meta name="robots" content="noindex"> |
Le dice a Googlebot que siga rastreando, pero que retire la página del índice. | La etiqueta se respeta en el siguiente rastreo — a menudo en < 12 h. |
| 2 | Configurar <link rel="canonical" href="https://chatgpt.com"> |
Consolida cualquier señal residual de ranking hacia la página de inicio. | Evita que duplicados canonizados reaparezcan más adelante. |
| 3 | Enviar en bloque a la herramienta de retirada de URLs de Google | Oculta las URLs de los resultados de inmediato durante ~6 meses mientras avanza la retirada permanente del índice. | Se salta la latencia del rastreo; actúa en minutos. |
| 4 (esperado) | Actualizar robots.txt para hacer Disallow de /share/ |
Detiene por completo las solicitudes de rastreo, reduciendo consumo de ancho de banda y ruido en logs. | El toque final; asegura que los nuevos enlaces compartidos no vuelvan a entrar en la cola. |
Este playbook de cuatro pasos — noindex + canonical + eliminación de URL + robots.txt — vale la pena guardarlo. Si alguna vez necesitas retirar rápidamente del índice una sección grande de tu sitio (después de una filtración del entorno de staging, una publicación accidental o una explosión de contenido generado por usuarios), este es el enfoque más rápido que existe. Nosotros hemos usado un playbook muy parecido en tres emergencias de clientes durante el último año, y de forma consistente limpia las URLs indexadas en 24-48 horas.
Prioridad de gran marca: Los dominios con alta autoridad se rastrean con más frecuencia, así que los cambios de directivas se propagan más rápido. Cuando chatgpt.com le dice algo a Google, Google escucha rápido.
Empujón manual: Es casi seguro que OpenAI activó "Fetch as Google" en Search Console para forzar una nueva revisión de las páginas críticas después de que las nuevas etiquetas estuvieran activas.
Evitación automatizada de penalizaciones: Los sistemas anti-spam de Google penalizan el contenido thin o generado por usuarios cuando escala sin control; OpenAI tenía un incentivo muy fuerte para neutralizar el riesgo antes de que entrara en juego una degradación a nivel de sitio.
El playbook de limpieza de OpenAI se detuvo en Google Search Console. Como resultado, Bing todavía muestra ~1 millón de páginas /share en sus resultados: un pueblo fantasma digital de conversaciones de ChatGPT que ahora son invisibles en Google.
Aquí es donde la historia se pone interesante desde una perspectiva SEO multi-engine. Revisamos las mismas tres consultas de clientes que tenían páginas competidoras de /share en Google y encontramos que, en Bing, esas páginas seguían apareciendo una semana completa después. Esa diferencia deja ver tres diferencias estructurales entre los motores:
Latencia entre rastreo e indexación — Googlebot vuelve a visitar dominios de alta autoridad en cuestión de horas; Bingbot muchas veces necesita días. Cuando OpenAI inyectó noindex y etiquetas canónicas, Google volvió a rastrear rápido y obedeció. Bing simplemente todavía no había pasado por su cola pendiente.
Ausencia de intervención en BWT — Todo indica que OpenAI omitió Bing Webmaster Tools, lo que significa que Bingbot seguía obedeciendo la directiva original de "Allowed" hasta que su cadencia natural alcanzó los cambios.
Patrón histórico de retraso — Esto no es nuevo. En 2021 Bing siguió mostrando URLs de favicons de WordPress semanas después de que hubieran sido eliminadas de Google, y el año pasado indexó un directorio filtrado de font-CSS que Google ignoró. La flota más pequeña de bots de Bing y su ventana de actualización más conservadora hacen que sea propenso a resacas de indexación cuando un sitio de alto perfil cambia directivas de golpe.
Conclusión práctica: Si dependes del tráfico de Bing — o de citas en ChatGPT que se apoyan en el índice de Bing — necesitas dashboards dobles. Envía solicitudes de eliminación o de nuevo rastreo tanto en Search Console como en Bing Webmaster Tools. Después de este incidente, nosotros ya lo incluimos como paso estándar en nuestro playbook de retirada de emergencia del índice, porque aprendimos por las malas que "arreglado en Google" no significa "arreglado en todas partes".
/share no ingleses dominan en BingUn efecto secundario curioso del retraso de Bing: las páginas /share que sobrevivieron son abrumadoramente resultados no ingleses y en alfabetos no latinos — japonés, ruso, árabe, tailandés. Nos dimos cuenta porque uno de nuestros clientes tiene un subdominio en japonés y estaba viendo más páginas competidoras de /share en Bing JP que en Bing US. Hay tres factores que explican ese sesgo:
Los segmentos regionales del índice se actualizan más lentamente — Bing divide su índice por mercado. Los segmentos de alto tráfico en US-EN se actualizan más rápido; las particiones de idiomas periféricos pueden tardar una semana o más en podar páginas con noindex.
Priorización de clústeres duplicados — El algoritmo de deduplicación de Bing mantiene una URL por clúster canónico. Cuando las versiones en inglés desaparecieron de Google y perdieron autoridad de enlazado interno, Bing trasladó el peso hacia variantes únicas no inglesas que todavía conservaban señales de interacción de usuarios.
Diferencia entre retirar del índice y seguir mostrando — Bing puede marcar internamente una URL como fuera del índice y aun así seguir mostrándola en mercados con poca competencia hasta el siguiente ciclo completo de despliegue.
Idea clave de optimización: En sitios multilingües, los despliegues escalonados de directivas (por ejemplo, primero EN y luego JP) pueden crear ventanas no deseadas de contenido duplicado. El enfoque más seguro es implementar noindex y actualizaciones de etiquetas canónicas de forma global, y luego verificar la eliminación en cada centro de datos específico de cada mercado usando comprobaciones de SERP con VPN. Nosotros ya añadimos esto a nuestra lista de verificación posterior al despliegue.
Lecturas relacionadas:

no credit card required
No related articles found.