TL;DR: i builder di siti AI generano codice pulito, ma spesso saltano i fondamentali della SEO. Mappa i vecchi URL, imposta i redirect 301, conserva i meta tag e verifica l’indicizzazione prima e dopo la migrazione a un sito web generato dall’AI. Usa un rilascio graduale per limitare i danni.
I siti web generati dall’AI sono i nuovi temi WordPress. Veloci da mettere online, ma anche facilissimi da rompere lato SEO.
Nell’ultimo anno ho seguito cinque migrazioni verso siti web generati dall’AI. Due sono andate lisce. Tre hanno perso traffico organico -- una ha bruciato il 47% dei clic in meno di un mese. La dinamica era sempre la stessa: il risultato generato dall’AI sembrava ottimo, il codice era pulito, e nessuno aveva controllato se Google riusciva ancora a trovare, scansionare e posizionare le pagine che stavano generando fatturato.
La tecnologia non è il problema. Strumenti come Lovable, v0 e Bolt producono codice funzionale e ben strutturato. Il problema è il passaggio di consegne. I builder di siti AI non trasferiscono automaticamente i tag canonici, le mappe di redirect, la struttura dei link interni o i segnali EEAT. Sono proprio questi elementi invisibili a mantenere il posizionamento delle tue pagine. Se li perdi, in pratica stai lanciando un sito completamente nuovo senza l’autorità che hai costruito nel tempo.
Questo playbook è il framework che uso per le migrazioni verso siti web generati dall’AI. Quando lo seguiamo, i cali di traffico restano sotto il 5%. Quando i team saltano dei passaggi, il calo medio che vedo nel settore si aggira intorno al 40%.
Prima che anche un solo paragrafo generato dall’AI finisca in produzione, fai una fotografia dettagliata del sito che stai per cambiare. Non è facoltativo -- è il gruppo di controllo che ti permette di dimostrare un eventuale aumento di traffico o di intercettare un crollo in tempo per tornare alla versione precedente.


| Fonte dati | File da esportare | Colonne chiave |
|---|---|---|
| GSC | query-performance.csv |
URL, query, posizione, clic, impression |
| Ahrefs/Semrush | backlinks_export.csv |
URL, domini referenti, DR/DA, valore del traffico |
| Crawler | crawl_all_urls.csv |
URL, status, canonical, inlinks, title, meta |
| PageSpeed API | core_web_vitals.csv |
URL, LCP, INP, CLS, device |
Salvali in una cartella con la data. Questa è la tua foto del “prima”.
Fasce di traffico:
Ruolo nella conversione:
Aggiungi al foglio master le colonne traffic_tier e conversion_role. Con una tabella pivot fatta bene vedi subito quali URL non puoi permetterti di rovinare e quali invece possono diventare il tuo terreno di test AI a basso rischio.
(Nota a margine: per un cliente, il 73% del fatturato organico arrivava da sole 8 pagine. Quelle 8 pagine non hanno ricevuto alcun trattamento AI finché le ondate 1 e 2 non hanno dimostrato che il processo funzionava sulle pagine a basso valore. Questa prudenza gli ha evitato quello che sarebbe stato un errore parecchio costoso.)
Le peggiori storie horror sulle migrazioni AI iniziano tutte con: “Abbiamo pubblicato 5,000 nuove pagine e cannibalizzato i nostri posizionamenti.” Mappa ogni URL, il suo intento e le sue sovrapposizioni prima che l’AI inizi a scrivere.
| Segnale | Tool / Metodo | Soglia |
|---|---|---|
| Paragrafi quasi duplicati | Screaming Frog > Content > Similarity | Similarity 90%+ |
| Basso numero di parole | Formula nel foglio sulla colonna word_count | Sotto 300 parole |
| Zombie pages | Incrocio dei dati GSC e Ahrefs | 0 clic, 0 link in 6 mesi |
| Decisione | Criteri | Azione |
|---|---|---|
| Lascia invariato | Traffico Tier-1, backlink unici, EEAT forte | Solo copy-edit manuale; niente generazione AI |
| Riscrivi con guida umana | Tier-1/2, critico per EEAT (finanza, salute) | Bozza umana con supporto AI al massimo 20%, verifica dei fatti approfondita |
| Sostituisci con contenuto AI | Traffico Tier-3, nessun backlink, contenuto debole | Bozza AI completa, 20% di riscrittura umana, controllo qualità finale |
| Consolida e reindirizza | Intento duplicato, pagine sovrapposte | Unisci in un singolo URL; 301 sulle pagine più deboli |
| Elimina | Zombie pages, nessun link, nessuna conversione | Rimuovi; restituisci 410 Gone; invia sitemap aggiornata |
/ai-preview/) che replichi la gerarchia URL del sito live. Non usare mai un subdomain -- i subdomain spezzano l’autorità./pricing/ in produzione deve essere /ai-preview/pricing/ in staging. Quando fai il passaggio, sostituisci la root invece di riscrivere i link.| Parametro | Impostazione consigliata | Perché |
|---|---|---|
| Modello | GPT-4o o Claude 3 Sonnet | Una capacità di ragionamento migliore riduce gli errori fattuali |
| Temperature | 0.4-0.6 | Tono vario senza picchi di allucinazioni |
| Revisione umana | Almeno 20% del testo visibile | Aumenta la varietà del testo per gli AI detector e inserisce competenza reale |
| Controllo dei fatti | Citazioni inline verso fonti primarie | Soddisfa EEAT; riduce il rischio di misinformation |
| Citazioni EEAT | 2+ citazioni di esperti o statistiche ogni 1,000 parole | Rafforza i segnali di fiducia per query YMYL |
Workflow: genera, passa in Grammarly, riscrittura umana, verifica dei fatti, test con detector -- tutto dentro lo staging.
Soglia AI detector: usa GPTZero o Sapling. Punta a stare sotto il 35% di "likely AI". Tutto ciò che supera questa soglia torna indietro per un editing umano più pesante.
Checklist on-page: l’H1 contiene la keyword principale (sotto 60 caratteri), meta title e meta description sono unici e ottimizzati, almeno 8 link interni contestuali con anchor text diversificati, lo schema markup valida nel test Rich Results.
Solo le pagine che superano tutti i controlli qualità passano dallo staging al live.
| Fase | Pool di pagine | Logica di selezione | Obiettivo | Finestra |
|---|---|---|---|---|
| Fase 1 | 10% pagine a basso valore | URL Tier-3 con meno dell’1% dei clic, nessuna equity da backlink | Validare rendering, schema, punteggi AI detector | 7 giorni |
| Fase 2 | 10% pagine a valore medio | Post informativi Tier-2, traffico moderato | Confermare la stabilità del posizionamento su URL più delicati | 14 giorni |
| Fase 3 | 80% delle pagine restanti | Pagine che generano revenue + inventario residuo | Migrazione completa dopo che le fasi 1-2 mostrano una varianza sotto il 5% | 30-45 giorni |
Dove possibile, fai split-test: mantieni l’HTML originale in una variante con query parameter (?v=control) e manda lì il 10% del traffico tramite routing A/B server-side.
Dashboard in tempo reale:
Soglie di alert automatiche:
Protocollo di ritorno alla versione precedente: riattiva l’HTML legacy tramite il parametro di controllo, riporta il 302 al file originale, invia l’ispezione URL in GSC per forzare una nuova scansione, poi fai audit della causa radice.
(Un’altra parentesi: una volta un cliente è andato nel panico quando le pagine della fase 1 hanno mostrato un calo del 12% di traffico dopo quattro giorni. Abbiamo indagato -- e si è scoperto che il calo era stagionale, identico alla stessa dinamica dell’anno precedente. Le pagine AI stavano performando esattamente come le originali. Morale: confronta sempre con lo stesso periodo dell’anno scorso, non solo con la settimana prima.)
Non automaticamente. Google penalizza i contenuti di bassa qualità o fuorvianti indipendentemente da chi li ha scritti. Il rischio vero è pubblicare testo AI piatto, poco vario, che non supera i controlli EEAT. Soluzione: 20% di riscrittura umana, citazioni e punteggi di probabilità AI sotto il 35%.
No. I subdomain dividono la link equity e costringono Google a reimparare i segnali di fiducia. Migra dentro sottocartelle e mantieni identici gli slug degli URL.
Rendi obbligatorio un controllo rigoroso delle fonti: chiedi al modello di includere gli URL, poi fai verificare ogni link da un umano. Qualsiasi affermazione che non puoi citare va riscritta o rimossa.
Torna alla versione precedente se il calo supera il 15% per più di sette giorni consecutivi o se le conversioni scendono di oltre il 10%. Riattiva l’HTML legacy, controlla i log e correggi il problema prima di rilanciare.
Mensilmente. Aggiorna brand voice, nuove statistiche e pattern da evitare per ridurre il rischio di rilevamento. Prompt non aggiornati reintroducono ripetizioni, riducono la varietà del testo e aumentano il rischio di essere rilevati.

no credit card required