Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →TL;DR. Googlebot es el nombre paraguas para los rastreadores que Google utiliza para descubrir, renderizar e indexar contenido web. No es un solo robot, es una familia. El miembro más importante es Googlebot Smartphone, que rastrea la versión móvil de tu sitio con un Chromium sin interfaz gráfica que sigue la última versión estable de Chrome. El rastreo, la renderización y la indexación son tres fases separadas que pueden ocurrir con horas o días de diferencia. La mayoría de los problemas de “Googlebot no puede ver mi página” provienen de JavaScript que falla silenciosamente en la fase de renderizado, no en la de rastreo. El resto de esta guía cubre la familia de bots, el pipeline de tres fases, cómo verificar que una petición sea realmente de Googlebot, las preguntas habituales sobre robots.txt y presupuesto de rastreo, y cómo se compara Googlebot hoy con Bingbot, GPTBot, PerplexityBot y ClaudeBot.
Googlebot es el programa que Google usa para obtener páginas web y añadirlas a su índice. Cuando publicas una nueva entrada de blog y finalmente aparece en los resultados de búsqueda, ese viaje empieza con Googlebot solicitando la URL, descargando el HTML, ejecutando el JavaScript y pasando el resultado al sistema de indexación de Google. Sin Googlebot, tus páginas no existen para la búsqueda de Google.
Hay dos matices que conviene aclarar de entrada. Primero, “Googlebot” se usa a veces de forma laxa para referirse a “cualquier rastreador de Google”. Estrictamente hablando, Googlebot es el rastreador que obtiene páginas para el índice principal de búsqueda. Existen otros rastreadores de Google (AdsBot para la calidad de páginas de destino, Storebot para fichas de Shopping, Google-Extended para exclusiones de entrenamiento de IA), pero son bots distintos con objetivos y reglas diferentes. Sé específico sobre cuál te refieres cuando depuras.
Segundo, Googlebot no es un scraper. Un scraper toma lo que puede de tu página sin permiso y usa los datos como quiere. Googlebot lee tu archivo robots.txt antes de cada rastreo, respeta las metaetiquetas noindex, se auto-limita cuando tu servidor se ralentiza e identifica su agente de usuario en las cabeceras para que puedas verificar que la petición viene realmente de Google. Si ves un hit de “Googlebot” en tus logs y está machacando tu origen sin retroceder, casi seguro no es Googlebot real. Es alguien suplantando el user-agent.
El bot que más debes tener en mente es Googlebot Smartphone, que rastrea por defecto la versión móvil de tu sitio desde que Google finalizó el indexado mobile-first a mediados de 2023. Los rastreos de escritorio siguen existiendo, pero ahora son secundarios. Aquí está el árbol familiar con las cadenas de agente de usuario exactas que publica Google:
| Rastreador | Cadena de agente de usuario (extracto) | Función |
|---|---|---|
| Googlebot Smartphone | Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X...) ... Chrome/W.X.Y.Z Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) | Rastreador principal de la versión móvil de tu sitio. Genera la mayor parte del indexado. |
| Googlebot Desktop | Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Chrome/W.X.Y.Z Safari/537.36 | Rastrea variantes de escritorio. Menor porcentaje de tráfico tras el mobile-first. |
| Googlebot Image | Googlebot-Image/1.0 | Obtiene imágenes para Google Imágenes. Bot distinto, reglas distintas. |
| Googlebot Video | Googlebot-Video/1.0 | Obtiene archivos de vídeo para Google Videos. |
| Googlebot News | Sin UA propio — usa varias cadenas de Googlebot | Rastrea para Google News. Se identifica por IP, no por UA. |
| Google-InspectionTool | Mozilla/5.0 (compatible; Google-InspectionTool/1.0;) | Se dispara cuando usas la herramienta de Inspección de URL en Search Console. Omite parte del caché. |
El marcador W.X.Y.Z en los agentes de Smartphone y Desktop no es literal. Google sustituye la versión real de Chromium en tiempo de petición, y esa versión avanza siguiendo la última estable de Chrome. A fecha de hoy, eso significa que el motor de renderizado de Googlebot está a pocas semanas de lo que Chrome envía al público. Si tu sitio usa una característica de JavaScript que requiere Chrome 130+, probablemente Googlebot la soporte. Si depende de algo aún no lanzado, Googlebot no. Esta es la clave que muchos debates sobre “¿mi JS es demasiado moderno para Googlebot?” pasan por alto: el renderizador del bot está actualizado, no congelado en Chrome 41 como hace años.
El trabajo de Googlebot se divide en tres fases distintas. No ocurren al mismo tiempo, y un retraso o fallo en cualquiera de ellas puede dejar tu página fuera de los resultados. La propia documentación de Google lo resume así: “Google procesa las apps web JavaScript en tres fases principales: 1. Rastreo 2. Renderizado 3. Indexación.” Comprender los límites entre estas fases es lo que separa a los SEOs que depuran problemas de indexado de quienes adivinan.
Googlebot coge una URL de su cola, envía una petición HTTP y recibe la respuesta HTML en bruto. Y ahí acaba esta fase. Aún no se ejecuta JavaScript ni se examina contenido renderizado. El rastreador lee el código de estado, las cabeceras (incluidas las de caché, X-Robots-Tag y redirecciones) y el cuerpo HTML sin procesar. Las URLs provienen de un conjunto que Google genera a partir de sitemaps XML, enlaces internos de páginas ya indexadas, enlaces externos y envíos directos mediante la herramienta de Inspección de URL.
Si la respuesta HTML ya contiene todo lo que debe indexarse (el caso clásico SSR), Googlebot tiene suficiente para continuar. Si el HTML bruto está casi vacío y el contenido lo inyecta JavaScript después, la página pasará a la fase de renderizado. Aquí es también donde Googlebot lee el archivo robots.txt antes de cualquier rastreo. Si una URL está desautorizada, Googlebot ni siquiera la solicita.
Si la página necesita JavaScript para mostrar su contenido, Googlebot entrega la URL al Web Rendering Service (WRS). El WRS es un Chromium sin UI que carga la página en un entorno similar a un navegador, ejecuta los scripts y produce el HTML final renderizado. La documentación lo explica con frialdad: “Cuando los recursos de Google lo permiten, un Chromium headless renderiza la página y ejecuta el JavaScript.”
La frase “cuando los recursos de Google lo permiten” hace mucho trabajo. Renderizar es caro (navegador completo, JS arbitrario, peticiones de red), así que Google lo agrupa en lotes y lo pone en cola. Las páginas pueden permanecer ahí segundos, horas o, en el peor caso, días. La guía oficial es deliberadamente vaga: “La página puede estar en esta cola unos segundos, pero puede tardar más que eso.”
Este retraso de renderizado es el mayor problema práctico con sitios renderizados vía JS. Tu post puede rastrearse en minutos tras publicarse pero no renderizarse hasta 24 horas después; tu contenido no aparece en búsquedas hasta el día siguiente aunque Google haya “visto” la URL. Las páginas puramente SSR se saltan esta cola.
Una vez que Googlebot tiene el HTML final (directo del rastreo o del WRS), el sistema de indexación analiza el documento, extrae texto, clasifica el contenido, evalúa señales de ranking y lo almacena en el índice. Desde aquí la página puede aparecer en resultados. La indexación tampoco es instantánea; puede tomar minutos u horas adicionales tras el renderizado, pero en este punto la labor de Googlebot sobre esa URL ha terminado y el resto depende de los algoritmos de ranking.
La mayoría de los problemas de “Googlebot no ve mi contenido” son de renderizado, no de rastreo. El rastreo casi siempre funciona; la página simplemente no se renderiza como esperaba el desarrollador. Estos seis fallos son los que más veo en clientes de SEOJuice, en orden aproximado de frecuencia.
loading="lazy" o un Intersection Observer que el WRS pueda resolver. Librerías personalizadas que esperan eventos de scroll suelen fallar porque no hay scroll. Usa loading="lazy" en imágenes; para componentes, asegúrate de que se rendericen en el servidor o con un framework con SSR/hidratación adecuada.googlebot.json) antes de activar cualquier “bloquear bots”. Compruébalo con Search Console al cambiar reglas de WAF.robots.txt impide rastrear /static/ o /assets/, el WRS no puede obtener los bundles JS y CSS y la página se renderiza sin estilos o con JS roto. Permite a Googlebot rastrear rutas de assets aunque bloquees otras.La cadena de agente de usuario de Googlebot es trivial de falsificar. Cualquiera puede enviar una petición que diga ser Googlebot. Las peticiones reales provienen de rangos de IP propiedad de Google, y la única forma fiable de verificarlas es un reverse DNS seguido de un forward DNS. La doc oficial lo explica, pero la versión práctica es corta:
.googlebot.com o .google.com.En consola: host 66.249.66.1 seguido de host crawl-66-249-66-1.googlebot.com. Si operas un sitio con mucho tráfico, automatiza esto; te sorprenderá cuántas veces un “pico de rastreo de Googlebot” es en realidad un scraper de terceros con el user-agent falsificado.
Google lo llama presupuesto de rastreo. En sitios de menos de ~10 000 URLs casi nunca limita. Googlebot rastreará todo lo importante en un plazo razonable. Se vuelve crítico solo en sitios grandes con millones de URLs, e-commerce con facetas o donde Googlebot malgasta rastreos en duplicados o URLs de baja calidad. Los factores que Google publica son velocidad de rastreo (qué tan rápido responde tu servidor sin errores) y demanda de rastreo (popularidad y frecuencia de cambio de la URL).
Sí, si consumen presupuesto en sitios grandes. Patrón típico: bloquear URLs de facetas, resultados de búsqueda interna, paginaciones más allá de la página 5, variantes con IDs de sesión y endpoints de administración. Usa robots.txt para bloquear en rastreo y meta noindex para bloquear en indexado. Hacen cosas distintas. Robots impide el rastreo; noindex permite rastrear pero no indexar.
Envíala con la herramienta de Inspección de URL en Search Console. Lanza un rastreo fuera de la cola habitual (usa Google-InspectionTool, no Googlebot) y es más rápido que esperar. Además enlaza la nueva página desde una página con autoridad ya indexada para que el siguiente rastreo regular la descubra por el grafo de enlaces.
Porque en algún momento una URL de tu dominio staging o dev se filtró a la web pública (un enlace accidental, un resultado de búsqueda, un issue tracker abierto) y Googlebot sigue el grafo. Bloquea todo el dominio staging en robots.txt con Disallow: / y añade autenticación básica si el contenido es sensible.
La versión sistemática de esta depuración hace cuatro comprobaciones, en orden, hasta que una devuelva respuesta clara.
Comprobación 1, Inspección de URL en Search Console. Pega la URL. La herramienta indica si Google la rastreó e indexó, y cuándo, y permite “Ver página probada” para ver el HTML renderizado y un screenshot. Si falta tu contenido, el problema es de renderizado. Si la página devuelve un estado distinto de 200, el problema es de rastreo. Esta sola prueba resuelve ~70 % de las investigaciones.
Comprobación 2, curl con el user-agent de Googlebot. Ejecuta curl -A "Mozilla/5.0 ... Googlebot/2.1 ..." https://tusitio.com/ruta. Si tu servidor devuelve contenido distinto para Googlebot que para un navegador normal, lo verás aquí. El cloaking (intencionado o no) es causa común de problemas misteriosos.
Comprobación 3, auditoría de robots.txt y metaetiquetas. Visita https://tusitio.com/robots.txt. Confirma que la URL no esté bloqueada. Luego revisa el código fuente y busca noindex. Sorprende cuántos casos son una etiqueta noindex que quedó tras un despliegue de staging.
Comprobación 4, análisis de logs del servidor. Filtra los accesos de Googlebot verificado en los últimos 30 días. Si la URL nunca aparece, es un problema de descubrimiento: Googlebot no sabe que existe. Añádela al sitemap y enlázala. Si aparece pero siempre devuelve 4xx o 5xx, corrige el error antes de reintentar. SEOJuice realiza este análisis de logs en cada sitio conectado y avisa la primera vez que una URL clave deja de recibir tráfico de Googlebot real, lo que suele detectar problemas antes de que afecten al ranking.
Googlebot solía ser el único rastreador en el que la mayoría pensaba; eso cambió. Así se comparan los principales rastreadores web en 2026:
| Rastreador | Operador | ¿Renderiza JS? | Usado para |
|---|---|---|---|
| Googlebot | Sí (Chromium reciente) | Índice de búsqueda de Google | |
| Bingbot | Microsoft | Sí (Edge/Chromium) | Índice de Bing, grounding de Copilot |
| GPTBot | OpenAI | Limitado / sin soporte SPA | Datos de entrenamiento de ChatGPT |
| OAI-SearchBot | OpenAI | Limitado | Recuperación para ChatGPT |
| PerplexityBot | Perplexity | Limitado | Motor de respuestas Perplexity |
| ClaudeBot | Anthropic | Limitado | Entrenamiento y recuperación de Claude |
| Google-Extended | N/D (solo señal) | Exclusión de entrenamiento para Gemini |
Dos implicaciones prácticas. Primero: los rastreadores de IA renderizan JavaScript peor que Googlebot. Si tu contenido depende de renderizado en cliente, quizá posiciones bien en Google pero seas invisible para ChatGPT, Perplexity y Claude: verán una página vacía. La solución es la misma que necesita Googlebot: renderizar en servidor o prerenderizar lo esencial. Nuestro verificador de visibilidad en IA gratuito te dice en un minuto si los principales motores de IA ven tu contenido. Segundo: cada rastreador de IA tiene sus propias directivas en robots.txt. User-agent: GPTBot bloquea el crawler de OpenAI, User-agent: Google-Extended bloquea el de Gemini, User-agent: Googlebot sigue controlando la búsqueda normal. Si quieres aparecer en Google Search pero no en entrenamientos de IA, define reglas separadas.
Googlebot es el rastreador web que Google usa para descubrir y descargar páginas para indexarlas y mostrarlas en resultados. Es una familia de rastreadores (Smartphone, Desktop, Image, Video, News) con cadenas de agente y propósitos distintos, pero la mayoría de debates sobre “Googlebot” se refieren a Googlebot Smartphone, rastreador principal desde que Google completó el indexado mobile-first en 2023.
Sí. El Web Rendering Service (WRS) es un Chromium sin interfaz que ejecuta JS en las páginas que lo necesitan. La versión de Chromium sigue las estables recientes, por lo que las funciones modernas suelen funcionar. El problema es la cola de renderizado: incluso cuando JS se ejecuta bien, puede ocurrir segundos, horas o días después del rastreo inicial. Las páginas SSR se saltan la cola.
Haz un reverse DNS a la IP. Los hits reales resuelven a hostnames que terminan en .googlebot.com o .google.com. Luego haz un forward DNS a ese hostname; debe devolver la misma IP. Si falla algún paso, es user-agent falsificado. La cabecera UA sola no prueba nada.
Sí. Añade User-agent: Googlebot seguido de Disallow: / en tu robots.txt. Esto bloquea el rastreo, por lo que la página no se indexará ni aparecerá en Google. Para control granular, usa meta noindex en páginas individuales (permite rastrear pero no indexar) o bloquea rutas concretas en robots.txt. No bloquees a Googlebot el acceso a tus bundles CSS y JS: el servicio de renderizado los necesita.
No. Son rastreadores distintos, de compañías diferentes y con objetivos distintos. Googlebot indexa la web para Google Search. GPTBot recolecta datos para ChatGPT. PerplexityBot recupera contenido para el motor de respuestas de Perplexity. Cada uno tiene su propio user-agent y obedece (o no) sus directivas de robots.txt. Puedes permitir Googlebot y bloquear GPTBot, o cualquier combinación, definiendo reglas separadas.
Las causas más comunes, en orden: la página no está enlazada desde ninguna URL indexada (Googlebot no la conoce), devuelve un código distinto de 200, tiene meta noindex, está bloqueada por robots.txt o su contenido depende de JS que el servicio de renderizado aún no procesó. Usa la herramienta de Inspección de URL para comprobarlo; “Ver página probada” muestra exactamente lo que vio Googlebot y es la forma más rápida de diagnosticar. Las páginas nuevas suelen tardar de horas a días en indexarse, más si tu sitio tiene baja frecuencia de rastreo.
Sí, pero se trata por separado de la página padre. El contenido dentro de un iframe se asocia a la URL del iframe, no a la página que lo embebe. Si pones tu contenido principal en un iframe, repartes la señal de indexado en dos URLs y debilitas ambas. No lo hagas para contenido que deba asociarse a la página principal.
Si solo recuerdas tres cosas de Googlebot, que sean estas. Primero, es una familia de rastreadores y Googlebot Smartphone es el que importa para casi todos los sitios desde el mobile-first. Segundo, el pipeline tiene tres fases (rastreo, renderizado, indexado) y la mayoría de problemas viven en la fase de renderizado, no en la de rastreo; por eso “Ver página probada” en Search Console es la superficie de depuración más útil. Tercero, los rastreadores de IA (GPTBot, PerplexityBot, ClaudeBot) renderizan JS peor que Googlebot, así que optimizar para el renderizador de Googlebot también hace visible tu contenido en la búsqueda de IA, pero no siempre al revés. La solución a “los motores de IA no me citan” suele ser la misma que a “Googlebot no ve mi contenido”: renderizar en servidor, incluir lo crítico en el HTML inicial y no esconderlo tras JS que falla en silencio.
Relacionado: SEO para Single Page Applications • Answer Engine Optimization (AEO) • Herramienta gratuita de auditoría SEO • Comprobador gratuito de visibilidad en IA
no credit card required
No related articles found.