Una disciplina de SEO técnico para reducir la proliferación de URL generadas por parámetros, de modo que Googlebot dedique su tiempo a las páginas canónicas que impulsan los ingresos en lugar de a variantes duplicadas.
El control del presupuesto de parámetros es la práctica de limitar qué variantes de parámetros de URL pueden rastrear e indexar los motores de búsqueda. Es importante porque los filtros facetados, los órdenes de clasificación, las etiquetas de seguimiento y los identificadores de sesión pueden multiplicar las URL rastreables por 10x a 100x, desperdiciando el presupuesto de rastreo y dividiendo las señales entre duplicados.
Control del “footprint” de parámetros significa decidir qué URL con parámetros merecen ser rastreadas o indexadas y apagar el resto. En ecommerce grande, clasificados y sitios de editores, esto no es trabajo de limpieza. Es una “triage” del presupuesto de rastreo.
El problema es sencillo: los filtros, los órdenes de clasificación, los estados de paginación, los ID de sesión y las etiquetas UTM crean enormes conjuntos de URL con muy poco o ningún valor de búsqueda único. Screaming Frog, Ahrefs y Semrush normalmente mostrarán el síntoma. Los registros (logs) de tu servidor muestran el coste. En configuraciones deficientes, entre un 40% y un 70% de las solicitudes de Googlebot acaban yendo a URL basura con parámetros en vez de a páginas de categoría, páginas de producto o inventario nuevo.
Clasificas los parámetros en grupos: tracking, sesión, orden, filtro y contenido que cambia. Luego asignas una regla a cada grupo: permitir, canoncializar, bloquear el rastreo, noindex, redirigir o eliminarlos del todo con un 410.
Usa la extracción personalizada de Screaming Frog, los informes de indexación de GSC y los logs en crudo para encontrar los principales culpables. Si no revisas logs, estás adivinando.
Las etiquetas canonical son útiles, pero no son un campo de fuerza. Google aún puede rastrear con fuerza las URL duplicadas si los enlaces internos, los sitemaps XML o la navegación facetada siguen exponiéndolas. John Mueller de Google lo ha repetido durante años, y el punto sigue vigente en 2025: los canonicals son sugerencias, no directivas.
Por eso, las configuraciones sólidas combinan métodos:
Una salvedad: bloquear con robots.txt puede detener el rastreo, pero también impide que Google vea un canonical o un noindex en esa página bloqueada. Los equipos lo estropean constantemente. Si el objetivo es la desindexación, robots.txt solo suele ser el primer movimiento equivocado.
Usa números, no sensaciones. En GSC, mira tendencias de páginas indexadas, estadísticas de rastreo y la proporción de páginas útiles frente a basura descubierta. En los logs, registra la cuota de visitas de Googlebot que van a rutas canónicas. En sitios grandes, un objetivo práctico es que el 80%+ de las solicitudes de Googlebot aterricen en URL canónicas y dignas de indexación dentro de 4 a 8 semanas.
También revisa si las URL con parámetros siguen apareciendo en Ahrefs o Moz como targets enlazados. Si lo hacen, tu limpieza de enlaces internos o de backlinks externos está incompleta.
La salvedad sincera: el “presupuesto de rastreo” es real en sitios grandes, pero a menudo se culpa de problemas básicos de arquitectura. Si tus plantillas crean páginas de categoría débiles, arreglar solo los parámetros no moverá posiciones. El Control del “footprint” de parámetros elimina el desperdicio. No crea demanda de búsqueda ni mejora automáticamente la calidad de las páginas.
El límite práctico en el que las plantillas de página …
Elimina la hinchazón del índice programático para recuperar el presupuesto …
Protege el presupuesto de rastreo, consolida la autoridad de enlace …
Cómo los pequeños cambios en las plantillas pueden provocar regresiones …
Cómo las ediciones globales de plantillas cambian la segmentación de …
Cuando las URL de bajo valor saturan la cola de …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free