TL;DR: Los creadores de sitios con IA generan código limpio, pero suelen saltarse lo básico de SEO. Mapea tus URL antiguas, configura redirecciones 301, conserva las metaetiquetas y verifica la indexación antes y después del cambio. Haz un despliegue por fases para limitar el daño.
Los sitios web generados con IA son los nuevos temas de WordPress. Rápidos de montar y también rápidos de cargarse el SEO.
He visto cinco migraciones de sitios impulsadas por IA en el último año. Dos salieron bien. Tres perdieron tráfico orgánico; una perdió el 47 % de sus clics en menos de un mes. El patrón fue siempre el mismo: el resultado de la IA se veía genial, el código estaba limpio y nadie revisó si Google todavía podía encontrar, rastrear y posicionar las páginas que realmente generan ingresos.
La tecnología no es el problema. Herramientas como Lovable, v0 y Bolt producen código funcional y bien estructurado. El problema está en la transición. Los creadores de sitios con IA no conservan tus etiquetas canónicas, tu mapa de redirecciones, tu estructura de enlaces internos ni tus señales de EEAT. Esos elementos invisibles son los que mantienen tus páginas bien posicionadas. Si los pierdes, en la práctica estás lanzando un sitio completamente nuevo, sin nada de la autoridad que ya habías construido.
Esta guía es el marco que uso para migraciones impulsadas por IA. Cuando lo seguimos, las caídas de tráfico se mantienen por debajo del 5 %. Cuando los equipos se saltan pasos, la caída promedio en la industria ronda el 40 %.
Antes de que un solo párrafo generado con IA llegue a producción, toma una radiografía completa del sitio que estás a punto de cambiar. Esto no es opcional: es el grupo de control que te permite demostrar cualquier mejora de tráfico o detectar una caída a tiempo para revertir los cambios.


| Fuente de datos | Archivo a exportar | Columnas clave |
|---|---|---|
| GSC | query-performance.csv |
URL, consulta, posición, clics, impresiones |
| Ahrefs/Semrush | backlinks_export.csv |
URL, dominios de referencia, DR/DA, valor del tráfico |
| Rastreador | crawl_all_urls.csv |
URL, estado, canónica, enlaces entrantes, título, meta |
| PageSpeed API | core_web_vitals.csv |
URL, LCP, INP, CLS, dispositivo |
Guárdalos en una carpeta con fecha. Esta es tu foto del “antes”.
Niveles de tráfico:
Roles de conversión:
Agrega las columnas traffic_tier y conversion_role a tu hoja maestra. Con una tabla dinámica rápida ya puedes ver qué URL no te puedes permitir arruinar y cuáles pueden servir como terreno de prueba de bajo riesgo para IA.
(Nota al margen: para un cliente, el 73 % de sus ingresos orgánicos venían de solo 8 páginas. Esas 8 páginas no recibieron ningún tratamiento con IA hasta que las Olas 1 y 2 demostraron que el proceso funcionaba en páginas de bajo valor. Esa contención les evitó lo que habría sido un error bastante caro.)
Las peores historias de terror en migraciones con IA empiezan con: “Publicamos 5,000 páginas nuevas y canibalizamos nuestras propias posiciones”. Mapea cada URL, su intención y sus solapamientos antes de que la IA empiece a redactar.
| Señal | Herramienta / método | Umbral |
|---|---|---|
| Párrafos casi duplicados | Screaming Frog > Content > Similarity | Similarity 90 % o más |
| Bajo conteo de palabras | Fórmula en hoja sobre la columna word_count | Menos de 300 palabras |
| Páginas zombi | Combinación de GSC + Ahrefs | 0 clics, 0 enlaces durante 6 meses |
| Decisión | Criterios | Acción |
|---|---|---|
| Conservar tal cual | Tráfico Tier 1, backlinks únicos, EEAT fuerte | Solo edición manual; nada de generación con IA |
| Reescribir (liderado por humanos) | Tier 1/2, crítico para EEAT (finanzas, salud) | Borrador humano con ayuda de IA de máximo 20 %, verificación de datos exhaustiva |
| Reemplazar con IA | Tráfico Tier 3, sin backlinks, contenido escaso | Borrador completo con IA, 20 % de reescritura humana, control de calidad |
| Consolidar y redirigir | Intención duplicada, páginas solapadas | Fusionar en una sola URL; 301 para las páginas más débiles |
| Eliminar | Páginas zombi, sin enlaces, sin conversiones | Quitar; devolver 410 Gone; enviar sitemap actualizado |
Esta es la parte donde la mayoría de las migraciones se tuercen. No por el modelo, sino por el proceso. Si generas contenido con IA sin una capa de control técnico y editorial, no estás acelerando: estás apostando.
/ai-preview/) que replique la jerarquía de URL del sitio activo. Nunca uses un subdomain; los subdomains fragmentan la autoridad./pricing/ en producción debe ser /ai-preview/pricing/ en staging. Cuando hagas el cambio, intercambias raíces en vez de reescribir enlaces.| Parámetro | Configuración recomendada | Por qué |
|---|---|---|
| Modelo | GPT-4o o Claude 3 Sonnet | Un razonamiento más sólido reduce errores factuales |
| Temperatura | 0.4-0.6 | Tono variado sin picos de alucinaciones |
| Reescritura humana | Al menos 20 % del texto visible | Mejora la entropía frente a detectores de IA e inyecta expertise real |
| Verificación de datos | Citas inline a fuentes primarias | Cumple con EEAT; reduce riesgo de desinformación |
| Citas de EEAT | 2+ citas de expertos o estadísticas por cada 1,000 palabras | Refuerza señales de confianza para consultas YMYL |
Flujo de trabajo: generar, pasar por Grammarly, reescritura humana, verificación de datos, prueba con detector; todo dentro de staging.
Umbral del detector de IA: Usa GPTZero o Sapling. Apunta a menos de 35 % de “likely AI”. Cualquier cosa por encima vuelve para una edición humana más agresiva.
Checklist on-page: el H1 contiene la palabra clave principal (menos de 60 caracteres), el metatítulo y la metadescripción son únicos y están optimizados, hay al menos 8 enlaces internos contextuales con diversidad de textos de anclaje, y el schema markup valida en la prueba de Rich Results.
Checklist técnico: la URL final responde con el código correcto, la canónica apunta a sí misma, no hay recursos bloqueados por robots, el renderizado es estable en móvil y desktop, y la versión nueva conserva los elementos que ya aportaban valor SEO en la versión anterior.
Solo las páginas que pasan todas las puertas de QA salen de staging hacia producción.
| Ola | Grupo de páginas | Lógica de selección | Objetivo | Ventana |
|---|---|---|---|---|
| Ola 1 | 10 % de páginas de bajo valor | URL Tier 3 con menos del 1 % de los clics, sin equity de backlinks | Validar renderizado, schema y puntuaciones del detector de IA | 7 días |
| Ola 2 | 10 % de páginas de valor medio | Posts informativos Tier 2, tráfico moderado | Confirmar estabilidad de posiciones en URL con más riesgo | 14 días |
| Ola 3 | 80 % de las páginas restantes | Páginas transaccionales + inventario restante | Migración completa después de que las Olas 1-2 muestren menos del 5 % de variación | 30-45 días |
Haz split-test cuando sea posible: conserva el HTML original en una variante con query parameter (?v=control) y dirige el 10 % del tráfico hacia ahí mediante enrutamiento A/B del lado del servidor.
Dashboards en tiempo real:
Umbrales de alerta automatizados:
Protocolo de reversión: vuelve a habilitar el HTML heredado mediante el parámetro de control, revierte la 302 al archivo original, envía inspección de URL en GSC para forzar un nuevo rastreo y audita la causa raíz.
(Otro comentario al margen: una vez un cliente entró en pánico cuando sus páginas de la Ola 1 mostraron una caída de tráfico del 12 % después de cuatro días. Investigamos, y resultó que la caída era estacional, calcada al mismo patrón del año anterior. Las páginas con IA estaban rindiendo exactamente igual que las originales. La lección: compara siempre contra el mismo período del año pasado, no solo contra la semana anterior.)
No entres en pánico por un solo dato aislado. Primero revisa si la caída se sostiene durante al menos 7 días, si afecta clics y conversiones al mismo tiempo, y si el grupo de control muestra el mismo patrón. Si solo cae el tráfico pero las conversiones se mantienen, puede ser estacionalidad, cambios en la SERP o una variación normal de corto plazo. Si caen ambos, ahí sí toca intervenir.
Mi regla práctica es simple: si la caída supera el 15 % durante más de siete días consecutivos o si las conversiones bajan más del 10 %, revierte. Vuelve a habilitar el HTML heredado, inspecciona logs, compara renderizado, revisa enlaces internos, canónicas, metatítulos y metadescripciones, y corrige antes de relanzar. Esperar sin diagnosticar no es paciencia; es dejar que el problema se haga más caro.
No automáticamente. Google penaliza el contenido de baja calidad o engañoso sin importar quién lo escribió. El riesgo real es publicar texto plano, predecible y de baja entropía generado con IA que no supera controles de EEAT. La solución: 20 % de reescritura humana, citas y puntuaciones de probabilidad de IA por debajo de 35 %.
No lo hagas. Los subdomains dividen el link equity y obligan a Google a reaprender señales de confianza. Migra dentro de subcarpetas y mantén los slugs de URL idénticos.
Obliga una verificación de datos: pídele al modelo que incluya URL y luego haz que una persona verifique cada enlace. Cualquier afirmación que no se pueda citar debe reescribirse o eliminarse.
Revierte si la caída supera el 15 % durante más de siete días consecutivos o si las conversiones bajan más del 10 %. Vuelve a habilitar el HTML heredado, inspecciona logs y corrige antes de relanzar.
Mensualmente. Actualiza la voz de marca, nuevas estadísticas y patrones que reduzcan el riesgo de detección. Los prompts viejos vuelven a introducir repetición, bajan la entropía y aumentan el riesgo de detección.

no credit card required
No related articles found.