-- Las 55 comprobaciones se verificaron con la documentación actual de Google, se incorporaron los cambios del core update de marzo de 2026 y la sección de preparación para la búsqueda con AI se reescribió por completo para el panorama posterior a SGE.
TL;DR: Imprime esto. Guárdalo en favoritos. Revísalo cada trimestre. Son 55 comprobaciones organizadas en 6 categorías que cubren todas las dimensiones del SEO que importan en 2026, desde los fundamentos técnicos hasta la preparación para la búsqueda con AI. Cada comprobación incluye qué revisar y qué herramienta usar. Esto no es teoría. Es la lista de comprobación que uso en cada sitio que audito.
Consejo de impresión
Esta página está pensada para servir como referencia. Usa Ctrl+P (Cmd+P en Mac) para imprimirla -- las tablas están formateadas para A4/Letter. O simplemente déjala abierta en una pestaña fija del navegador, que es lo que hago yo.
Todas las comprobaciones siguen la misma estructura: una casilla, el nombre de la comprobación, una explicación de 1-2 frases sobre por qué importa y una herramienta para verificarla. Las marcas verdes significan que vas bien. Rojo significa que tienes trabajo pendiente. Amarillo significa que no es crítico, pero deberías resolverlo tarde o temprano.
Te recomiendo revisar esto cada trimestre. Algunas comprobaciones (como HTTPS o robots.txt) se configuran una vez y te olvidas. Otras (como la frescura del contenido o Core Web Vitals) cambian con el tiempo y requieren atención periódica. Las comprobaciones están ordenadas por impacto dentro de cada categoría: empieza por las más importantes.
Si no haces nada más de esta lista, concéntrate en estas cinco: las comprobaciones 1 (HTTPS), 6 (LCP), 11 (etiquetas title), 16 (enlaces internos) y 21 (señales de E-E-A-T). En mi experiencia auditando cientos de sitios, esas cinco por sí solas explican aproximadamente el 60% de los problemas de posicionamiento que encuentro. Todo lo demás importa, pero estas son las paredes de carga. Resuelve una al día durante una semana y ya estarás por delante de la mayoría de competidores que siguen mirando una lista de 55 puntos sin saber por dónde empezar.
Aquí están los cimientos. Si alguna de estas falla, nada más importa -- tu sitio no va a rendir sin importar qué tan bueno sea tu contenido. He visto contenido excelente quedarse sin indexar durante meses por un robots.txt mal configurado. Es el equivalente SEO de escribir una novela y dejarla guardada en un cajón con llave.
| ✓ | Comprobación | Por qué importa | Cómo verificarlo |
|---|---|---|---|
| ☐ | 1. HTTPS en todas las páginas | Google confirmó HTTPS como señal de ranking desde 2014. El contenido mixto (recursos HTTP en páginas HTTPS) activa advertencias del navegador y daña la confianza. En 2026, no hay ninguna excusa para no tenerlo. | Haz un rastreo -- marca cualquier página servida por HTTP o que cargue contenido mixto. Revisa también las URL canónicas que no usen HTTPS. |
| ☐ | 2. robots.txt es accesible y correcto | Un robots.txt roto (error 500) hace que Google deje temporalmente de rastrear todo tu sitio. Uno mal configurado bloquea páginas que sí quieres indexar. Cualquiera de los dos escenarios es catastrófico. | Visita yourdomain.com/robots.txt. Verifica que devuelva 200. Revisa que no bloquee archivos CSS/JS. Usa el probador de robots.txt de Google en GSC. |
| ☐ | 3. XML sitemap enviado y actualizado | Tu sitemap es la forma más directa de decirle a Google qué páginas importan. Los sitemaps desactualizados con URL muertas desperdician presupuesto de rastreo. | Google Search Console -> Sitemaps. Revisa la fecha del último envío. Verifica que no incluya páginas con noindex ni 404. |
| ☐ | 4. Las etiquetas canonical son correctas | Las etiquetas canonical incorrectas le dicen a Google que ignore la página que quieres posicionar y que indexe otra en su lugar. Las etiquetas canonical autorreferentes casi siempre son la opción correcta. | Haz un rastreo del sitio. La canonical de cada página debería apuntar a su propia URL, salvo que estés consolidando duplicados de forma deliberada. |
| ☐ | 5. Todas las páginas son aptas para móviles | Google usa mobile-first indexing -- tu versión móvil ES tu sitio a ojos de Google. Una página que se ve perfecta en escritorio pero se rompe en móvil se posicionará en función de esa versión móvil defectuosa. | Google Mobile-Friendly Test. También revisa manualmente en dispositivos reales -- las pruebas automáticas no detectan bloqueo de scroll, elementos superpuestos ni áreas táctiles diminutas. |
| ☐ | 6. Velocidad de página: LCP por debajo de 2.5s | Largest Contentful Paint mide qué tan rápido carga tu contenido principal. El umbral de Google: menos de 2.5s es "bueno". Más de 4s es "deficiente". La mayoría de sitios falla por imágenes principales sin optimizar o JavaScript que bloquea el renderizado. | PageSpeed Insights, pestaña Performance de Chrome DevTools o la herramienta SEOJuice CWV Impact. |
| ☐ | 7. INP por debajo de 200ms | Interaction to Next Paint reemplazó a FID en marzo de 2024 y ahora es la Core Web Vital de respuesta. El 43% de los sitios todavía fallan en esta métrica en 2026. Mide qué tan rápido responde tu página a clics, toques y pulsaciones de teclado. | Chrome DevTools -> Performance -> revisa INP. PageSpeed Insights muestra datos de campo. Solución: reduce JavaScript en el hilo principal y difiere scripts no críticos. |
| ☐ | 8. CLS por debajo de 0.1 | Cumulative Layout Shift mide la estabilidad visual -- cuánto "salta" la página mientras carga. Los culpables habituales son anuncios, imágenes que cargan tarde y contenido dinámico sin dimensiones reservadas. | PageSpeed Insights, Lighthouse. Solución: define width y height explícitos en imágenes/iframes y evita inyectar contenido por encima de la parte visible inicial de la página después de la carga. |
| ☐ | 9. Datos estructurados en los tipos de página clave | Los datos estructurados ayudan a Google a entender tu contenido y habilitan resultados enriquecidos (estrellas, FAQs, breadcrumbs, etc.). Las páginas con resultados enriquecidos obtienen en promedio un CTR 20-30% más alto. | Google Rich Results Test. Como mínimo: Organization (página de inicio), Article/BlogPosting (blog), Product (ecommerce), FAQ (soporte), BreadcrumbList (todas las páginas). |
| ☐ | 10. El presupuesto de rastreo no se desperdicia | Si tienes 10,000+ páginas, el presupuesto de rastreo importa. Las páginas huérfanas, la paginación infinita, las URL con sesión y la navegación facetada pueden consumir enormes recursos de rastreo. | GSC -> Settings -> Crawl stats. Revisa cuántas páginas se rastrean por día. Si está cayendo, audita páginas huérfanas y cadenas de redirección. |
Si sacaste 10/10 en la Categoría 1, felicidades -- estás en el top 20% de los sitios que audito. La mayoría falla en 2-3 de estas. Los fallos más comunes, en orden: sitemaps desactualizados (comprobación 3), INP por encima de 200ms (comprobación 7) y datos estructurados ausentes (comprobación 9). Si tu base técnica es sólida, todo lo demás en esta lista se vuelve muchísimo más fácil. Si está rota, nada más importa. Tengo una regla: no hablo de estrategia de contenido con un cliente hasta que estas 10 estén en verde. Nos ahorra tiempo a ambos.
El SEO on-page es donde la mayoría empieza -- y donde la mayoría también se queda. Estas comprobaciones son necesarias, pero no suficientes. Son el estándar mínimo, no la ventaja competitiva. Piensa en ellas como cepillarte los dientes: esencial, pero nadie ganó un concurso de belleza solo por tener los dientes limpios.
| ✓ | Comprobación | Por qué importa | Cómo verificarlo |
|---|---|---|---|
| ☐ | 11. Etiquetas title únicas en cada página | Tu etiqueta title es el factor on-page más importante para ranking. Los títulos duplicados confunden a Google sobre qué página debe posicionar. Los títulos ausentes dejan a Google adivinando -- y adivina mal. | Haz un rastreo. Marca páginas con títulos duplicados, sin título o con títulos de más de 60 caracteres (se cortan en las SERP). La auditoría de SEOJuice detecta los tres. |
| ☐ | 12. Meta descriptions en páginas clave | Las meta descriptions no afectan directamente el ranking, pero sí afectan el CTR -- y eso sí importa. Una descripción convincente es la diferencia entre un clic y que te pasen de largo. Google reescribe alrededor del 62% de las meta descriptions, pero tener una al menos te da una oportunidad real. | Haz un rastreo del sitio. Toda página que apunte a tráfico orgánico debería tener una meta description única de menos de 155 caracteres. |
| ☐ | 13. Un H1 por página, relevante para la keyword | Google usa el H1 para entender el tema principal de una página. Varios H1 diluyen esa señal. No tener H1 significa que Google tiene que deducir el tema solo a partir del cuerpo del contenido. | Revisa el código fuente o usa un crawler. Un H1, cerca de la parte superior, que contenga tu keyword principal o una variante cercana. |
| ☐ | 14. Jerarquía lógica de encabezados (H1->H2->H3) | La estructura de encabezados es un requisito de accesibilidad (WCAG) y también una señal SEO. Saltarse niveles (H1->H3) crea un esquema roto. Google usa los encabezados para entender la estructura del contenido y extraer featured snippets. | Revisa el esquema HTML. H1 -> H2 -> H3 en orden lógico. Nada de H3 debajo de un H1 sin un H2 en medio. |
| ☐ | 15. Alt text en todas las imágenes relevantes | El alt text es como Google "ve" las imágenes. También es un requisito legal de accesibilidad bajo WCAG 2.1 AA y la European Accessibility Act (obligatoria desde junio de 2025). Sin alt text = imágenes invisibles + posible riesgo legal. | Haz un rastreo del sitio y filtra imágenes sin alt text. Las imágenes decorativas deberían tener alt="" (vacío, no ausente). |
| ☐ | 16. Enlaces internos desde contenido contextual | Los enlaces internos distribuyen autoridad y ayudan a Google a descubrir páginas. Las páginas con cero enlaces internos (páginas huérfanas) desperdician presupuesto de rastreo y nunca posicionan. Los enlaces contextuales dentro del cuerpo pesan más que los de navegación/footer. | SEOJuice Internal Link Finder. Cada página debería recibir 3+ enlaces internos desde contenido relevante. |
| ☐ | 17. Keyword principal en las primeras 100 palabras | Google da más peso a los términos que aparecen temprano en el contenido. Esto no significa keyword stuffing -- significa ir al grano. Si tu keyword principal no aparece hasta el párrafo 4, tu introducción es demasiado larga. | Revisión manual de tus 20 páginas principales. Abre cada una, usa Ctrl+F con tu keyword objetivo y verifica que aparezca en el primer o segundo párrafo. |
| ☐ | 18. Profundidad de contenido suficiente | Las páginas con menos de 300 palabras rara vez posicionan para algo competitivo. Google necesita suficiente contenido para entender de qué trata tu página. El thin content es una de las razones más comunes por las que una página se rastrea pero no se indexa. | Haz un rastreo del sitio y exporta el conteo de palabras. Marca páginas con menos de 300 palabras que apunten a keywords orgánicas. Excepciones: herramientas, calculadoras, contenido interactivo. |
| ☐ | 19. Estructura de URL limpia | Las URL deberían ser legibles, descriptivas y usar guiones como separadores de palabras. Nada de IDs de sesión, parámetros excesivos ni cadenas aleatorias de caracteres. Las URL limpias consiguen mejor CTR en SERP y son más fáciles de enlazar. | Revisa tus patrones de URL. Formato: /categoria/slug-descriptivo/. Evita: /p?id=38472&sess=abc. |
| ☐ | 20. Etiquetas Open Graph y Twitter Card | Controlan cómo se ven tus páginas cuando se comparten en redes sociales y apps de mensajería. No es un factor directo de ranking, pero las comparticiones sociales generan tráfico y backlinks, y ambos sí influyen. | Usa Facebook Sharing Debugger y Twitter Card Validator. Como mínimo: og:title, og:description, og:image en cada página. |
El core update de marzo de 2026 de Google redobló la apuesta por las señales de E-E-A-T. La calidad del contenido no es opcional -- es el principal diferenciador entre los sitios que crecen y los que se estancan. También es la categoría donde veo la mayor brecha entre lo que la gente cree que es la calidad de su contenido y lo que realmente es. Todo el mundo cree que su contenido es "de alta calidad". Pasa estas comprobaciones antes de confirmar esa creencia.
"Los sitios con una calidad de contenido sólida, autoridad temática y un SEO técnico limpio suelen estabilizarse rápido después de las actualizaciones del algoritmo. Los sitios que reciben el golpe más fuerte son los que producen contenido sin experiencia real ni conocimiento de primera mano."
| ✓ | Comprobación | Por qué importa | Cómo verificarlo |
|---|---|---|---|
| ☐ | 21. Señales de E-E-A-T presentes | Experience, Expertise, Authoritativeness, Trustworthiness. Los quality raters de Google evalúan esto de forma explícita. En 2026, el componente de "Experience" (demostrar conocimiento de primera mano) pesa más que nunca -- los estudios muestran que el 73% del contenido mejor posicionado demuestra know-how real. | Revisa: bios de autor con credenciales, anécdotas personales/casos de estudio, datos originales, citas a fuentes autorizadas. Si no puedes saber quién escribió el contenido o por qué está calificado para hacerlo, tienes un problema de E-E-A-T. |
| ☐ | 22. Señales de frescura del contenido | Google usa fechas de última modificación y cambios en el contenido para evaluar frescura. El contenido viejo con estadísticas desactualizadas, enlaces rotos o referencias a "2023" dentro de una "guía 2026" transmite abandono. El content decay es real -- las páginas pierden tráfico con el tiempo si no se actualizan. | Revisa tus 50 páginas principales. Busca fechas obsoletas, estadísticas vencidas, enlaces muertos y referencias a años pasados. Actualiza y vuelve a publicar con una nota visible de "Actualizado [fecha]". |
| ☐ | 23. Sin problemas de contenido duplicado | El contenido duplicado divide las señales de ranking entre dos URL -- ninguna posiciona tan bien como una sola página consolidada. Causas comunes: www vs. non-www, HTTP vs. HTTPS, variaciones con slash final, contenido paginado. | Ejecuta site:yourdomain.com "frase exacta de la página" en Google. Si aparecen varias URL, consolida con redirecciones 301 o etiquetas canonical. |
| ☐ | 24. La profundidad del contenido supera a la competencia | Para keywords competitivas, tu contenido debe ser más completo que lo que ya posiciona. No más largo -- más útil. Cubre subtemas que los primeros resultados no cubren. Responde preguntas de seguimiento que ellos no responden. | Busca tu keyword objetivo. Lee los 3 primeros resultados. Pregúntate: ¿qué preguntas dejan sin responder? ¿Qué aprendí yo que ellos pasaron por alto? Llena esos huecos. |
| ☐ | 25. Formato de contenido correcto | Los muros de texto no posicionan en 2026. Tanto los algoritmos de Google como los usuarios prefieren contenido fácil de escanear -- subtítulos, listas, tablas, párrafos cortos. Las páginas con buen formato tienen tasas de rebote 40% más bajas. | Revisión visual: ¿puedes escanear la página y entender los puntos clave sin leer cada palabra? Si no, añade subtítulos, corta párrafos largos y usa listas con viñetas para los puntos importantes. |
| ☐ | 26. Elementos multimedia presentes | Las páginas con imágenes, videos o elementos interactivos tienden a posicionar mejor -- señalan mayor exhaustividad y mejoran el engagement. Google también indexa imágenes por separado, creando puntos de entrada adicionales a tu contenido. | Revisa tus landing pages principales. Como mínimo: 1 imagen relevante por cada 500 palabras. Las imágenes propias superan a las de stock. Inserta videos cuando tenga sentido. |
| ☐ | 27. Autor identificado con bio | Las directrices de calidad de Google mencionan explícitamente la autoría como señal de E-E-A-T. El contenido anónimo no tiene señal de credibilidad. Los autores identificados con bio, credenciales y perfiles sociales enlazados transmiten responsabilidad. | Cada artículo debería mostrar un autor visible que enlace a una página de autor con bio, foto, credenciales y enlaces a otros contenidos. Usa schema Person en las páginas de autor. |
| ☐ | 28. Fuentes y citas incluidas | Enlazar a fuentes autorizadas demuestra calidad de investigación y fortalece el componente de "Trustworthiness" de E-E-A-T. Las páginas que respaldan sus afirmaciones tienen más probabilidades de ser citadas por motores de búsqueda con AI. | Revisa el contenido en busca de afirmaciones sin fuente, especialmente estadísticas y citas. Cada dato debería enlazar a su fuente original. Evita enlazar a competidores -- cita la investigación original. |
| ☐ | 29. Fechas de actualización visibles | Tanto los usuarios como los motores de búsqueda usan las fechas para evaluar relevancia. Una página sin fecha podría tener 5 años y nadie lo sabría. Añadir una fecha visible reduce la incertidumbre y mejora la percepción de actualidad. | Revisa tus plantillas de contenido. Cada artículo/guía debería mostrar una fecha de "Última actualización". Usa dateModified en el schema Article para comunicárselo a Google. |
| ☐ | 30. Sin páginas de thin content apuntando a keywords | Las páginas de menos de 300 palabras que apuntan a keywords competitivas casi siempre son una pérdida de tiempo. Diluyen tu autoridad temática y rara vez posicionan. O las amplías hasta convertirlas en recursos completos o las eliminas y rediriges a contenido relacionado. | Haz un rastreo del sitio, exporta conteo de palabras y keywords objetivo. Cualquier página de menos de 300 palabras con una keyword objetivo debería ampliarse o consolidarse. |
Un apunte rápido sobre las comprobaciones 21-30: yo diría que si tu base técnica es sólida (Categoría 1 toda en verde) y la calidad de tu contenido es realmente fuerte (Categoría 3 mayormente en verde), puedes sobrevivir con un rendimiento mediocre en las demás categorías. La calidad del contenido es el activo compuesto. Todo lo demás es infraestructura que permite que ese compuesto funcione. Arregla primero la infraestructura porque es más rápido, pero invierte en calidad de contenido porque eso es lo que realmente gana.
Los enlaces siguen siendo la columna vertebral del algoritmo de ranking de Google. Los enlaces internos los controlas por completo. Los externos te los ganas. Ambos necesitan atención regular. Voy a decir algo ligeramente polémico aquí: si tu tiempo es limitado, dedica 80% de tu esfuerzo de enlaces al enlazado interno (comprobaciones 31-34, 37-38) y 20% al monitoreo de enlaces externos (comprobaciones 35, 40). Los enlaces internos son la palanca más infravalorada del SEO. Los controlas totalmente, puedes corregirlos hoy mismo y he visto mejoras de enlazado interno mover páginas de la posición 15 a la 6. La construcción de enlaces externos importa, pero es lenta, cara y en gran medida está fuera de tu control. No la ignores, pero tampoco dejes que te paralice.
| ✓ | Comprobación | Por qué importa | Cómo verificarlo |
|---|---|---|---|
| ☐ | 31. Sin páginas huérfanas | Las páginas con cero enlaces internos no pueden ser descubiertas por Google mediante rastreo. Desperdician presupuesto de rastreo y nunca posicionan. La investigación de Botify muestra que las páginas huérfanas consumen el 26% del presupuesto de rastreo en promedio. Mira nuestra guía completa sobre páginas huérfanas. | Haz un rastreo del sitio y compáralo con el sitemap. Cualquier URL del sitemap que no aparezca durante el rastreo probablemente sea huérfana. Solución: añade 3+ enlaces internos desde páginas relevantes. |
| ☐ | 32. Diversidad de anchor text | Si el 90% de tus enlaces internos usa el mismo anchor text, parece manipulador. El anchor text natural varía -- exact match, partial match, branded, genérico ("leer más") y URL desnudas. Intenta que ningún patrón de anchor text supere el 30% del total de enlaces hacia una página. | Anchor Text Diversity tool. Exporta enlaces internos por página y revisa la distribución de anchor text. |
| ☐ | 33. Sin enlaces internos rotos | Los enlaces internos rotos son link equity desperdiciado y recorridos de usuario rotos. Cada enlace a 404 es autoridad que se evapora en lugar de fluir hacia una página útil. | SEOJuice Broken Link Checker o ejecuta un rastreo completo y filtra códigos de respuesta 4xx en URL internas. |
| ☐ | 34. Sin cadenas de redirección | Una cadena de redirección es cuando URL A -> URL B -> URL C. Cada salto pierde algo de autoridad (Google dice que no, pero los datos de prueba muestran de forma consistente que sí). Las cadenas también ralentizan la carga. Longitud máxima aceptable: 1 redirección. | Haz un rastreo del sitio. Filtra cadenas de redirección (cualquier URL que haga 301 a otra 301). Solución: actualiza el enlace original para que apunte directamente al destino final. |
| ☐ | 35. Auditoría de calidad de enlaces externos | Enlazar a sitios externos spam o muertos daña tu trust score. Las directrices de Google mencionan que los sitios son juzgados por la compañía que mantienen. Revisa tus enlaces salientes -- cada enlace externo debería apuntar a una página legítima y activa. | Exporta todos los enlaces externos desde un rastreo. Revisa: enlaces muertos (404), enlaces a dominios spam y enlaces a sitios con advertencias de seguridad. Elimina o reemplaza según sea necesario. |
| ☐ | 36. Nofollow usado correctamente | Usa rel="nofollow" para enlaces pagados, contenido generado por usuarios (comentarios, foros) y enlaces por los que no quieres responder. No pongas nofollow a tus propios enlaces internos -- eso desperdicia autoridad. No pongas nofollow a todos los enlaces externos -- eso se ve antinatural. | Haz un rastreo del sitio y audita el uso de nofollow. Todos los enlaces internos deberían ser dofollow. Los enlaces editoriales externos deberían ser dofollow. Solo los enlaces sponsored/UGC deberían ser nofollow. |
| ☐ | 37. Profundidad de enlace por debajo de 4 clics | Toda página de tu sitio debería ser accesible en 3-4 clics desde la página de inicio. Las páginas enterradas más profundo se rastrean con menos frecuencia y reciben menos autoridad. Esto es especialmente crítico en ecommerce con estructuras de categorías profundas. | Haz un rastreo del sitio y revisa la métrica "crawl depth". Cualquier página importante con profundidad 5+ necesita mejor enlazado interno o una reestructuración de navegación. |
| ☐ | 38. Hub pages para temas clave | Las hub pages (o pillar pages) enlazan a todo el contenido relacionado con un tema y le señalan autoridad temática a Google. Sin ellas, tu contenido sobre un tema queda disperso en páginas desconectadas. | Para cada tema principal que cubra tu sitio, verifica que exista una hub page completa que enlace a todos los artículos relacionados. Los artículos relacionados deberían enlazar de vuelta al hub. |
| ☐ | 39. Los enlaces del footer/nav son útiles, no spam | Un footer con enlaces a todas las páginas de tu sitio diluye autoridad y parece spam. La navegación debería contener tus páginas más importantes -- no 200 enlaces a cada categoría y subcategoría. | Cuenta los enlaces en tu footer y navegación. Si cualquiera supera 50 enlaces, recórtalo. Quédate solo con páginas de primer nivel y recursos más importantes. |
| ☐ | 40. Perfil de backlinks monitorizado | Los backlinks tóxicos desde dominios spam pueden activar penalizaciones algorítmicas. Los backlinks perdidos desde sitios valiosos significan autoridad en descenso. Necesitas saber cuándo ocurre cualquiera de las dos cosas. | Configura monitoreo de backlinks. Revisa mensualmente: nuevos backlinks spam (desautoriza si son claramente manipuladores), enlaces perdidos desde dominios de alta autoridad (intenta recuperarlos) y la tendencia general de dominios de referencia. |
Esta es la sección que no existía hace dos años y probablemente será la más importante dentro de dos años. Los motores de búsqueda con AI (ChatGPT, Perplexity, Google AI Overviews) son el canal de descubrimiento de más rápido crecimiento en 2026, y optimizar para ellos requiere tácticas distintas al SEO tradicional. Estoy menos seguro de las tácticas específicas de esta sección que de cualquier otra -- el panorama cambia cada mes, y lo que funciona hoy puede no funcionar dentro de seis meses. Pero la apuesta direccional me parece sólida.
"El cambio fundamental en 2026 es que el descubrimiento ocurre a través de plataformas verticales y answer engines. Tu estrategia de SEO técnico ahora tiene que contemplar la búsqueda descentralizada -- la realidad de que el descubrimiento ocurre en Amazon, YouTube, ChatGPT y Perplexity, no solo en Google."
| ✓ | Comprobación | Por qué importa | Cómo verificarlo |
|---|---|---|---|
| ☐ | 41. Archivo llms.txt implementado | llms.txt es un archivo markdown en la raíz de tu dominio que enumera tu contenido más importante para sistemas de AI. Piensa en él como un sitemap para LLMs. Aunque todavía no es un estándar oficial, Claude y Perplexity lo referencian. Poco esfuerzo, posible beneficio. | Revisa yourdomain.com/llms.txt. Si no existe, crea uno listando tus páginas clave, sus temas y su propósito. Mira nuestro generador de llms.txt. |
| ☐ | 42. Acceso de crawlers de AI configurado | Las grandes empresas de AI tienen sus propios crawlers: GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot. Tu robots.txt debería permitirlos explícitamente si quieres aparecer en respuestas con AI. Si los bloqueas, desapareces de ese canal. | Revisa robots.txt en busca de directivas para crawlers de AI. Decide por sección: permite crawlers de AI en blog/recursos y quizá bloquéalos en contenido propietario. |
| ☐ | 43. FAQ schema implementado | FAQ schema es una de las formas más efectivas de conseguir citas en respuestas con AI. Los modelos de AI analizan datos estructurados de FAQ para extraer respuestas directas. Las páginas con FAQ schema tienen muchas más probabilidades de aparecer en Google AI Overviews. | Google Rich Results Test. Añade schema FAQPage a cualquier página con una sección de preguntas y respuestas. Asegúrate de que el schema coincida exactamente con el contenido visible -- las discrepancias activan acciones manuales. |
| ☐ | 44. Bloques de contenido citables y concisos | Los motores de búsqueda con AI citan contenido extrayendo pasajes cortos y factuales. Si tu contenido está escrito en párrafos largos y divagantes, los modelos no pueden extraer una cita con facilidad. Escribe con afirmaciones claras y dignas de ser citadas. | Revisa tus páginas principales. ¿Puedes identificar 3-5 frases que podrían sostenerse solas como respuesta a una consulta? Si no, añade frases-resumen claras después de cada sección. |
| ☐ | 45. Claridad de entidades y desambiguación | Los modelos de AI necesitan entender de qué entidades (personas, empresas, productos) trata tu contenido. Las referencias ambiguas confunden tanto al Knowledge Graph de Google como al parsing de LLMs. Sé explícito sobre quién y qué estás tratando. | Revisa: ¿tu marca está claramente definida en tu página About? ¿Las páginas de producto usan el nombre completo del producto? ¿Las personas se mencionan con nombre completo y contexto? Usa schema Organization y Person. |
| ☐ | 46. Elementos de optimización GEO | Generative Engine Optimization (GEO) se enfoca en lograr citas en motores de respuestas con AI. Elementos clave: estadísticas, citas, resúmenes citables, datos estructurados y definiciones claras de entidades. Las páginas optimizadas para GEO ven 30-40% más citas de AI. | Para cada página prioritaria, asegúrate de tener: al menos 2 datos con citas, un resumen claro en el primer párrafo, datos estructurados y topic sentences que respondan preguntas comunes de forma directa. |
| ☐ | 47. Monitoreo activo de visibilidad en AI | No puedes mejorar lo que no mides. Haz seguimiento de cómo aparece tu marca en ChatGPT, Perplexity y Google AI Overviews para tus consultas clave. El sentimiento importa -- ¿los motores de AI te citan de forma positiva o negativa? | Consulta manualmente ChatGPT y Perplexity con tus 10 keywords principales. Anota: ¿te citan? ¿La información es correcta? ¿El sentimiento es positivo? O usa el monitoreo de visibilidad AI de SEOJuice para seguimiento automatizado. |
| ☐ | 48. Menciones de marca en plataformas de AI | Los modelos de AI construyen su entendimiento de marca a partir del contenido web. Si tu marca no se menciona en sitios autorizados, los modelos de AI no saben que existes. PR, guest posts y cobertura del sector influyen directamente en tu visibilidad en AI. | Busca tu marca en ChatGPT y Perplexity. ¿La respuesta es precisa? ¿Completa? Si los modelos tienen información limitada o incorrecta sobre tu marca, necesitas más contenido autorizado sobre tu empresa en sitios externos. |
| ☐ | 49. Párrafos de respuesta directa en las primeras 100 palabras | Tanto Google AI Overviews como otros modelos de AI extraen preferentemente respuestas del inicio del contenido. Si tu respuesta está enterrada en el párrafo 7, un competidor con la respuesta en el párrafo 1 será citado en tu lugar. | Revisa tus páginas principales. ¿El primer párrafo contiene una respuesta clara y directa a la consulta objetivo? Si no, añade un TL;DR o una frase-resumen al principio. |
| ☐ | 50. Schema completo para parsing de AI | Más allá del schema básico, los motores de búsqueda con AI usan datos estructurados para entender relaciones entre entidades. Article schema con author, dateModified y publisher. HowTo schema para tutoriales. Product schema con ofertas, reseñas y especificaciones. | Ejecuta Rich Results Test en cada tipo de página. Como mínimo para 2026: Article (con author + dateModified), Organization (página de inicio), BreadcrumbList, FAQ (cuando aplique), HowTo (tutoriales), Product (ecommerce). |
Una evaluación honesta de la Categoría 5: tengo menos confianza en las comprobaciones 41-50 que en cualquier otra cosa de esta lista. El panorama de búsqueda con AI se mueve tan rápido que algunas de estas recomendaciones podrían quedar obsoletas para cuando leas esto. llms.txt (comprobación 41) puede convertirse en un estándar oficial o puede desaparecer sin pena ni gloria. La optimización GEO (comprobación 46) puede convertirse en la estrategia dominante o puede terminar absorbida por la práctica normal de SEO. En lo que sí tengo confianza: la apuesta direccional es correcta. La búsqueda con AI está creciendo, tu contenido necesita ser interpretable por máquinas y los sitios que inviertan en esto ahora tendrán ventaja cuando se asiente el polvo. Solo no apuestes toda la granja a una sola táctica de esta categoría. Reparte tu esfuerzo entre las 10 comprobaciones en lugar de ir all-in con una sola.
Esta última categoría es menos glamorosa y mucho más importante de lo que parece. Aquí vive el trabajo que evita que rompas lo que ya funciona. También es donde entran las obligaciones legales y operativas que mucha gente trata como "ya lo veremos después" hasta que dejan de poder ignorarlas. Mala idea.
| ✓ | Comprobación | Por qué importa | Cómo verificarlo |
|---|---|---|---|
| ☐ | 51. Google Search Console y analytics están bien configurados | Si no mides, estás adivinando. Y en SEO, adivinar suele ser una forma elegante de perder meses. Necesitas datos fiables de impresiones, clics, consultas, conversiones y comportamiento. | Verifica que Google Search Console esté validado para la propiedad correcta y que tu analytics registre tráfico, eventos y conversiones. Revisa también que no haya caídas de tracking después de despliegues o cambios de CMS. |
| ☐ | 52. Anotaciones y monitoreo de cambios activos | Las migraciones, rediseños, cambios de plantilla y despliegues técnicos suelen explicar caídas de tráfico que luego la gente atribuye al algoritmo (porque claro, siempre es más cómodo culpar a Google). Si no registras cambios, luego investigas a ciegas. | Mantén un changelog de despliegues, cambios SEO, publicaciones y actualizaciones importantes. Compáralo con tendencias en GSC y analytics para detectar correlaciones rápido. |
| ☐ | 53. Alertas para errores críticos configuradas | Los problemas graves rara vez avisan con educación. Un noindex masivo, un robots.txt roto, una caída de servidor o un pico de 404 puede costarte tráfico antes de que alguien lo note manualmente. | Configura alertas para caídas bruscas de clics, errores 5xx, páginas desindexadas, cambios en robots.txt y problemas de Core Web Vitals. Si puedes enterarte antes que tu cliente o tu jefe, mejor. |
| ☐ | 54. Cumplimiento de accesibilidad y EAA en páginas clave | La accesibilidad ya no es un nice-to-have. Es una obligación legal en muchos contextos, y la European Accessibility Act es obligatoria desde junio de 2025. Además, gran parte de una buena accesibilidad coincide con una mejor estructura SEO y una mejor experiencia de usuario. | Audita páginas clave con criterios WCAG 2.1 AA: alt text, contraste, navegación por teclado, estructura de encabezados, labels de formularios y mensajes de error. Si operas en mercados afectados por la EAA, esto no es opcional. |
| ☐ | 55. Proceso de revisión SEO antes de publicar o desplegar | La forma más barata de arreglar un problema SEO es evitar crearlo. Un checklist previo a publicación evita títulos vacíos, canonicals rotas, noindex accidentales, imágenes sin alt text y páginas huérfanas. | Crea una revisión previa para contenido nuevo y cambios técnicos: indexabilidad, metadatos, enlaces internos, schema, rendimiento móvil y tracking. Si publicas con frecuencia, documenta el proceso y hazlo repetible. |
Si ignoras la Categoría 6 porque "ya veremos luego", luego suele salir caro. No suele darte el subidón de ver una keyword subir 8 posiciones, pero sí evita caídas tontas, problemas legales y semanas de diagnóstico innecesario. Es mantenimiento preventivo. Nadie presume de ello en LinkedIn, pero funciona.
Recorre las 55 comprobaciones y califícate:
| Puntuación | Valoración | Qué significa |
|---|---|---|
| 50-55 | Excelente | Tu SEO está al nivel de los mejores. Concéntrate en calidad de contenido y diferenciación competitiva. |
| 40-49 | Bueno | Base sólida. Corrige los huecos -- probablemente estén en preparación para AI, contenido o mantenimiento. |
| 30-39 | Necesita trabajo | Se están perdiendo oportunidades importantes. Prioriza primero los fundamentos técnicos y las comprobaciones on-page. |
| 20-29 | Preocupante | Hay problemas serios en varias categorías. Empieza por la Categoría 1 y avanza de forma sistemática. |
| Menos de 20 | Crítico | Tu sitio tiene problemas fundamentales. Considera una auditoría SEO completa antes de cualquier otra cosa. |
La mayoría de los sitios que audito puntúa entre 28 y 42. Las comprobaciones de fundamentos técnicos suelen estar razonablemente bien (ya todo el mundo tiene HTTPS). Las mayores brechas aparecen en calidad de contenido, preparación para AI y mantenimiento operativo. No sorprende -- son las categorías que más cambiaron en los últimos 18 meses.
No puedes arreglarlo todo de una sola vez. Y, sinceramente, intentarlo es un error que yo mismo he cometido -- pasar una semana marcando las 55 casillas en vez de corregir las tres que realmente habrían movido la aguja. Así es como priorizo ahora cuando veo un sitio que falla en 20+ comprobaciones:
Semana 1: corrige cualquier cosa que bloquee la indexación. Comprobaciones 1-4 (HTTPS, robots.txt, sitemap, canonicals). Si esto está mal, nada más importa porque Google no puede ver tu sitio. Una vez pasé dos días investigando por qué el tráfico de un cliente había caído 40%, y resultó que su desarrollador había añadido accidentalmente un Disallow: / al robots.txt durante un despliegue de staging. Dos minutos para arreglarlo. Dos semanas de tráfico perdido.
Semana 2: corrige Core Web Vitals. Comprobaciones 6-8 (LCP, INP, CLS). Afectan a todas las páginas de tu sitio al mismo tiempo. Una sola corrección (como optimizar imágenes) puede mejorar cientos de páginas de golpe.
Semanas 3-4: corrige lo esencial del on-page. Comprobaciones 11-16 (titles, metas, headings, alt text, enlaces internos). Son las que tienen el impacto más directo en rankings por hora de trabajo invertida.
Mes 2: aborda la calidad del contenido. Comprobaciones 21-30. Aquí vive la verdadera ventaja competitiva. Mejor contenido + mejores señales de E-E-A-T = rankings sostenibles que las actualizaciones del algoritmo no tumban.
Mes 3: fortalece enlaces internos y arquitectura. Comprobaciones 31-39. Esta es la parte menos sexy y una de las más rentables. He visto sitios mejorar más por arreglar páginas huérfanas y profundidad de clic que por publicar cinco artículos nuevos.
Mes 4+: construye preparación para AI y procesos de mantenimiento. Comprobaciones 41-55. Empieza con llms.txt (5 minutos), FAQ schema (1 hora por página) y cumplimiento de accesibilidad/EAA en páginas clave. Luego pasa a monitoreo, visibilidad en AI y procesos previos a publicación.
Trimestralmente es el punto ideal. Las comprobaciones de fundamentos técnicos (Categoría 1) solo necesitan revisión después de despliegues o cambios grandes. Las de calidad de contenido, preparación para AI y mantenimiento se benefician de una revisión trimestral porque el panorama cambia rápido -- lo que era best practice hace 6 meses hoy puede ser simplemente lo mínimo esperado.
No. Nadie aprueba las 55. Los sitios que posicionan #1 para términos competitivos normalmente clavan las Categorías 1-3 (técnico, on-page, contenido) y son fuertes en al menos dos de las categorías restantes. Las puntuaciones perfectas no existen en el mundo real -- lo que importa es ser mejor que quien hoy ocupa la posición que quieres.
Las comprobaciones son las mismas; lo que cambia son las prioridades. Los sitios ecommerce deberían dar más peso a la Categoría 1 (técnica) y la Categoría 4 (perfil de enlaces) -- la navegación facetada, el presupuesto de rastreo y el enlazado interno son decisivos para el SEO de catálogos de producto. Los sitios de contenido deberían dar más peso a la Categoría 3 (calidad de contenido) y la Categoría 5 (preparación para AI) -- E-E-A-T y la optimización para citas de AI son la nueva frontera competitiva.
Cinco cambios importantes: (1) INP ahora es la métrica principal de respuesta, reemplazando a FID. (2) FAQ schema y el contenido citable ganaron mucho más peso por el auge de Google AI Overviews y otras experiencias de búsqueda con AI. (3) llms.txt ahora es una comprobación recomendada. (4) El cumplimiento de la EAA ahora es legalmente obligatorio para los sitios afectados desde junio de 2025, así que la accesibilidad ya no puede tratarse como un extra. (5) La sección de calidad de contenido ahora enfatiza mucho más la experiencia de primera mano por encima de señales genéricas de autoridad, reflejando las prioridades del core update de marzo de 2026 de Google.
Nuestra herramienta gratuita de auditoría SEO automatiza alrededor de 30 de estas 55 comprobaciones -- principalmente las categorías de fundamentos técnicos, SEO on-page y perfil de enlaces. Las comprobaciones de calidad de contenido, preparación para AI y parte del mantenimiento requieren criterio humano, por eso están en esta lista y no completamente automatizadas.
El SEO en 2026 no es más difícil que en 2024. Solo es más amplio. Ya no estás optimizando para un solo motor de búsqueda -- estás optimizando para Google, para AI Overviews, para ChatGPT, para Perplexity, para Google Lens, para asistentes de voz. Cada uno tiene requisitos ligeramente distintos, pero todos premian la misma base: sitios técnicamente sólidos con contenido realmente útil, bien estructurado y creado por personas que saben de lo que hablan.
Esta lista lo cubre todo. Revísala. Corrige lo que esté roto. Vuelve a revisarla el próximo trimestre. Esa es toda la estrategia.
Sin atajos. Sin hacks. Solo una lista de comprobación y la disciplina para seguirla. (Y quizá una taza de café. La lista es larga.)

no credit card required
No related articles found.