Migrare a un sito web generato dall’AI senza perdere visibilità SEO

Vadim Kravcenko
Vadim Kravcenko
· 5 min read

TL;DR: i builder di siti AI generano codice pulito, ma spesso saltano i fondamentali della SEO. Mappa i vecchi URL, imposta i redirect 301, conserva i meta tag e verifica l’indicizzazione prima e dopo la migrazione a un sito web generato dall’AI. Usa un rilascio graduale per limitare i danni.

I siti web generati dall’AI sono i nuovi temi WordPress. Veloci da mettere online, ma anche facilissimi da rompere lato SEO.

Nell’ultimo anno ho seguito cinque migrazioni verso siti web generati dall’AI. Due sono andate lisce. Tre hanno perso traffico organico -- una ha bruciato il 47% dei clic in meno di un mese. La dinamica era sempre la stessa: il risultato generato dall’AI sembrava ottimo, il codice era pulito, e nessuno aveva controllato se Google riusciva ancora a trovare, scansionare e posizionare le pagine che stavano generando fatturato.

La tecnologia non è il problema. Strumenti come Lovable, v0 e Bolt producono codice funzionale e ben strutturato. Il problema è il passaggio di consegne. I builder di siti AI non trasferiscono automaticamente i tag canonici, le mappe di redirect, la struttura dei link interni o i segnali EEAT. Sono proprio questi elementi invisibili a mantenere il posizionamento delle tue pagine. Se li perdi, in pratica stai lanciando un sito completamente nuovo senza l’autorità che hai costruito nel tempo.

Questo playbook è il framework che uso per le migrazioni verso siti web generati dall’AI. Quando lo seguiamo, i cali di traffico restano sotto il 5%. Quando i team saltano dei passaggi, il calo medio che vedo nel settore si aggira intorno al 40%.

Step 1: Audit iniziale

Prima che anche un solo paragrafo generato dall’AI finisca in produzione, fai una fotografia dettagliata del sito che stai per cambiare. Non è facoltativo -- è il gruppo di controllo che ti permette di dimostrare un eventuale aumento di traffico o di intercettare un crollo in tempo per tornare alla versione precedente.

A realistic team or solo developer preparing a website launch with planning documents or a checklist, visually supporting the build-test-launch and phased rollout process.
A realistic team or solo developer preparing a website launch with planning documents or a checklist, visually supporting the build-test-launch and phased rollout process.. Source: HubSpot Blog
A professional reviewing SEO performance, URL inventory, or migration benchmarks on a laptop to represent the baseline audit and pre-migration analysis process.
A professional reviewing SEO performance, URL inventory, or migration benchmarks on a laptop to represent the baseline audit and pre-migration analysis process.. Source: Search Engine Journal

Scansione del sito e dati di riferimento

  1. Inventario completo degli URL. Esegui una scansione con Screaming Frog o Sitebulb per catturare ogni URL live, codice di stato, URL canonico di destinazione e numero di link interni. Esporta tutto in CSV -- diventerà il foglio master della migrazione.
  2. Dati iniziali su posizionamenti e backlink. Estrai da Google Search Console le query principali, le posizioni, i clic e le impression. Esporta da Ahrefs o Semrush i dati per ogni URL: DR, domini referenti, varietà degli anchor text e valore del traffico. Segna gli URL con backlink ad alta autorità -- quelle pagine sono intoccabili se vuoi preservare il posizionamento.
  3. Snapshot dei Core Web Vitals. Usa il report Core Web Vitals di GSC o la PageSpeed Insights API per i punteggi LCP, INP e CLS per template. Registra tutto ciò che è fuori dalle soglie considerate buone da Google. Il copy generato dall’AI non ti salverà se le performance crollano.

Esporta questi file iniziali

Fonte dati File da esportare Colonne chiave
GSC query-performance.csv URL, query, posizione, clic, impression
Ahrefs/Semrush backlinks_export.csv URL, domini referenti, DR/DA, valore del traffico
Crawler crawl_all_urls.csv URL, status, canonical, inlinks, title, meta
PageSpeed API core_web_vitals.csv URL, LCP, INP, CLS, device

Salvali in una cartella con la data. Questa è la tua foto del “prima”.

Classifica le pagine per valore

Fasce di traffico:

  • Tier 1 (Top 10%): pagine che generano 50%+ dei clic organici
  • Tier 2 (Successivo 30%): traffico stabile, conversioni moderate
  • Tier 3 (Ultimo 60%): pagine long-tail o stagionali

Ruolo nella conversione:

  • Pagine che generano revenue: revenue diretto o lead generation
  • Pagine di supporto alla conversione: articoli blog, guide, contenuti comparativi
  • Pagine di supporto: FAQ, documentazione, legale

Aggiungi al foglio master le colonne traffic_tier e conversion_role. Con una tabella pivot fatta bene vedi subito quali URL non puoi permetterti di rovinare e quali invece possono diventare il tuo terreno di test AI a basso rischio.

(Nota a margine: per un cliente, il 73% del fatturato organico arrivava da sole 8 pagine. Quelle 8 pagine non hanno ricevuto alcun trattamento AI finché le ondate 1 e 2 non hanno dimostrato che il processo funzionava sulle pagine a basso valore. Questa prudenza gli ha evitato quello che sarebbe stato un errore parecchio costoso.)

Step 2: Contenuti e cannibalizzazione

Le peggiori storie horror sulle migrazioni AI iniziano tutte con: “Abbiamo pubblicato 5,000 nuove pagine e cannibalizzato i nostri posizionamenti.” Mappa ogni URL, il suo intento e le sue sovrapposizioni prima che l’AI inizi a scrivere.

Mappa l’intento di ricerca e individua i cluster di cannibalizzazione

  • Raggruppa gli URL per radice della keyword (per esempio: "ai writing tool", "ai content generator")
  • Ordina ogni gruppo per clic + conversioni
  • Le pagine che condividono la stessa radice con segnali di intento simili sono i tuoi cluster di cannibalizzazione
  • Segna le sovrapposizioni in cui due URL si posizionano per la stessa query nella top 20 -- dopo la migrazione una delle due crollerà se non pianifichi con attenzione

Individua duplicati e thin content

Segnale Tool / Metodo Soglia
Paragrafi quasi duplicati Screaming Frog > Content > Similarity Similarity 90%+
Basso numero di parole Formula nel foglio sulla colonna word_count Sotto 300 parole
Zombie pages Incrocio dei dati GSC e Ahrefs 0 clic, 0 link in 6 mesi

Decidi: mantieni, riscrivi, sostituisci

Decisione Criteri Azione
Lascia invariato Traffico Tier-1, backlink unici, EEAT forte Solo copy-edit manuale; niente generazione AI
Riscrivi con guida umana Tier-1/2, critico per EEAT (finanza, salute) Bozza umana con supporto AI al massimo 20%, verifica dei fatti approfondita
Sostituisci con contenuto AI Traffico Tier-3, nessun backlink, contenuto debole Bozza AI completa, 20% di riscrittura umana, controllo qualità finale
Consolida e reindirizza Intento duplicato, pagine sovrapposte Unisci in un singolo URL; 301 sulle pagine più deboli
Elimina Zombie pages, nessun link, nessuna conversione Rimuovi; restituisci 410 Gone; invia sitemap aggiornata

Step 3: Build-test-launch

Blueprint tecnico

  • Prima replica, poi pubblica. Crea una sottocartella di staging (/ai-preview/) che replichi la gerarchia URL del sito live. Non usare mai un subdomain -- i subdomain spezzano l’autorità.
  • Mantieni gli slug identici. /pricing/ in produzione deve essere /ai-preview/pricing/ in staging. Quando fai il passaggio, sostituisci la root invece di riscrivere i link.
  • Canonical autoreferenziali. Nelle pagine di staging, fai puntare il canonical all’URL live previsto anche mentre stai testando.
  • 302 temporanei durante il controllo qualità. Quando una pagina passa dallo staging alla produzione, pubblicala dietro un 302 per una o due settimane. Se le metriche tengono, convertilo in 301.

Linee guida per la generazione dei contenuti AI

Parametro Impostazione consigliata Perché
Modello GPT-4o o Claude 3 Sonnet Una capacità di ragionamento migliore riduce gli errori fattuali
Temperature 0.4-0.6 Tono vario senza picchi di allucinazioni
Revisione umana Almeno 20% del testo visibile Aumenta la varietà del testo per gli AI detector e inserisce competenza reale
Controllo dei fatti Citazioni inline verso fonti primarie Soddisfa EEAT; riduce il rischio di misinformation
Citazioni EEAT 2+ citazioni di esperti o statistiche ogni 1,000 parole Rafforza i segnali di fiducia per query YMYL

Workflow: genera, passa in Grammarly, riscrittura umana, verifica dei fatti, test con detector -- tutto dentro lo staging.

Soglie di controllo qualità

Soglia AI detector: usa GPTZero o Sapling. Punta a stare sotto il 35% di "likely AI". Tutto ciò che supera questa soglia torna indietro per un editing umano più pesante.

Checklist on-page: l’H1 contiene la keyword principale (sotto 60 caratteri), meta title e meta description sono unici e ottimizzati, almeno 8 link interni contestuali con anchor text diversificati, lo schema markup valida nel test Rich Results.

Solo le pagine che superano tutti i controlli qualità passano dallo staging al live.

Step 4: Lancio graduale

Roll-out 10-10-80

Fase Pool di pagine Logica di selezione Obiettivo Finestra
Fase 1 10% pagine a basso valore URL Tier-3 con meno dell’1% dei clic, nessuna equity da backlink Validare rendering, schema, punteggi AI detector 7 giorni
Fase 2 10% pagine a valore medio Post informativi Tier-2, traffico moderato Confermare la stabilità del posizionamento su URL più delicati 14 giorni
Fase 3 80% delle pagine restanti Pagine che generano revenue + inventario residuo Migrazione completa dopo che le fasi 1-2 mostrano una varianza sotto il 5% 30-45 giorni

Dove possibile, fai split-test: mantieni l’HTML originale in una variante con query parameter (?v=control) e manda lì il 10% del traffico tramite routing A/B server-side.

Monitoraggio e ritorno alla versione precedente

Dashboard in tempo reale:

  • Copertura indice (GSC): controlla eventuali picchi in "Crawled -- currently not indexed"
  • Delta di posizionamento (Ahrefs/Semrush): monitora le keyword top-100 per cali di 2+ posizioni
  • Errori di scansione (log file): segnala nuovi 404/500 nel giro di pochi minuti

Soglie di alert automatiche:

  • Calo di traffico: diminuzione del 15%+ su qualsiasi pagina Tier-1 su una finestra mobile di 7 giorni
  • Picco di bounce: aumento di 10+ punti percentuali sui template migrati
  • Scivolamento INP: INP supera 200ms sul nuovo HTML

Protocollo di ritorno alla versione precedente: riattiva l’HTML legacy tramite il parametro di controllo, riporta il 302 al file originale, invia l’ispezione URL in GSC per forzare una nuova scansione, poi fai audit della causa radice.

(Un’altra parentesi: una volta un cliente è andato nel panico quando le pagine della fase 1 hanno mostrato un calo del 12% di traffico dopo quattro giorni. Abbiamo indagato -- e si è scoperto che il calo era stagionale, identico alla stessa dinamica dell’anno precedente. Le pagine AI stavano performando esattamente come le originali. Morale: confronta sempre con lo stesso periodo dell’anno scorso, non solo con la settimana prima.)

Step 5: Ottimizzazione post-migrazione

  • Aggiornamento mensile dei prompt. Aggiorna i prompt AI con nuove statistiche di settore, ritocchi al tono del brand e ciò che hai imparato sui pattern da evitare per ridurre il rischio di rilevamento.
  • Recupero link trimestrale. Controlla in Ahrefs i link persi a causa di modifiche agli URL; recuperali tramite outreach o redirect aggiornati.
  • Tuning dei Core Web Vitals. Riesegui l’audit di INP, LCP e CLS dopo qualsiasi modifica a layout o script nei template AI.
  • Iniezione di contenuti autorevoli. Pianifica ogni trimestre approfondimenti scritti da umani o interviste a esperti per rafforzare EEAT sui temi più delicati.
  • Monitoraggio dei detector. Mantieni il sito sotto il 35% di probabilità AI; se vedi deriva, aumenta la quota di riscrittura umana.

FAQ

Google penalizza le pagine scritte con AI?

Non automaticamente. Google penalizza i contenuti di bassa qualità o fuorvianti indipendentemente da chi li ha scritti. Il rischio vero è pubblicare testo AI piatto, poco vario, che non supera i controlli EEAT. Soluzione: 20% di riscrittura umana, citazioni e punteggi di probabilità AI sotto il 35%.

Posso spostare il blog su un subdomain mentre passo all’AI?

No. I subdomain dividono la link equity e costringono Google a reimparare i segnali di fiducia. Migra dentro sottocartelle e mantieni identici gli slug degli URL.

Le nostre bozze AI citano fonti che non esistono -- come fermiamo le allucinazioni?

Rendi obbligatorio un controllo rigoroso delle fonti: chiedi al modello di includere gli URL, poi fai verificare ogni link da un umano. Qualsiasi affermazione che non puoi citare va riscritta o rimossa.

Il traffico è sceso del 18% sulle pagine che generano revenue dopo la fase 2: torno indietro o aspetto?

Torna alla versione precedente se il calo supera il 15% per più di sette giorni consecutivi o se le conversioni scendono di oltre il 10%. Riattiva l’HTML legacy, controlla i log e correggi il problema prima di rilanciare.

Ogni quanto dovrei aggiornare i prompt AI dopo la migrazione?

Mensilmente. Aggiorna brand voice, nuove statistiche e pattern da evitare per ridurre il rischio di rilevamento. Prompt non aggiornati reintroducono ripetizioni, riducono la varietà del testo e aumentano il rischio di essere rilevati.

Continua a leggere

Immagine