Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →TL;DR: La checklist SEO post-lancio più efficace è più corta di quanto pensi. Un lancio raramente fallisce perché manca una meta description; fallisce quando Google non riesce a eseguire la scansione, il rendering, a fidarsi o a collegare i nuovi URL ai vecchi segnali di autorevolezza. Controlla prima accesso, rendering, redirect, canonical, analytics e sitemap. Se questi passano, il sito probabilmente non sta bruciando. Poi puoi pensare alle rifiniture.
Ho pubblicato siti di clienti con mindnow, ricostruito vadimkravcenko.com e ora sto creando seojuice.io con pagine pubbliche static-first e sezioni di app che non devono posizionarsi. Il panico dopo il lancio quasi mai nasce da “ci siamo dimenticati un attributo alt”. Nasce da “la nuova route React restituisce un guscio vuoto”, “la mappa degli URL ha buchi” o “Search Console indica discovered but not indexed e nessuno vuole ammettere che le pagine sono deboli”.
È questo lo schema mentale da rompere. Una checklist SEO post-lancio deve funzionare come un triage, non come un foglio Excel dove ogni riga ha lo stesso peso morale. Prima si ferma l’emorragia, poi si lucida.
Le checklist di lancio standard appiattiscono il rischio. Una meta description mancante e un robots.txt che blocca tutto non appartengono allo stesso livello, così come un hero image lento e una mappa di redirect 301 rotta.
La prima ora serve per le prove (è la parte che la maggior parte dei team salta). I crawler riescono a raggiungere le pagine? Google vede l’URL previsto, il canonical, il contenuto e lo status? Gli URL vecchi, i link interni, l’analytics e le citazioni sono sopravvissuti? Solo dopo ci si può spostare sul lavoro di miglioramento.
| Livello di priorità | Cosa intercetta | Quando controllare | Esempio di fallimento |
|---|---|---|---|
| Accesso | Blocchi di crawl e regole noindex | Primi 60 minuti | La produzione parte con il robots.txt di staging |
| Identità | Status, canonical, contenuto renderizzato | Primo giorno | Il canonical punta alla locale sbagliata |
| Continuità | Redirect, link, analytics, citazioni | Giorni 0-7 | Gli URL vecchi reindirizzano alla homepage |
| Miglioramento | Metadata, schema, qualità contenuti, velocità | Dalla seconda settimana | I template categoria hanno bisogno di copy più forte |
Ecco perché un buon audit SEO tecnico dopo il lancio parte dai possibili fallimenti, non dagli abbellimenti. I lanci sono politici: senza ordine, ogni riunione diventa teatro.
Non dare per scontato che “il sito si carica in Chrome” significhi che Google vede il contenuto. Chrome è il tuo browser. Googlebot è un crawler con fasi di rendering, code di crawl, risorse bloccate e un lavoro diverso.
Parti dal robots.txt di produzione. Conferma che le sezioni da posizionare siano consentite. Controlla poi meta robots, intestazioni x-robots-tag, codici di stato HTTP e tag canonical. Le pagine live devono restituire 200. I redirect permanenti 301. Le pagine rimosse 404 o 410. I canonical devono essere autoreferenziali o consolidati intenzionalmente.
Usa quindi l’Ispezione URL in Google Search Console. Testa un URL per ogni tipo di pagina indicizzabile: homepage, categoria, prodotto, articolo, località, pagina programmatica e qualunque nuovo template. Esegui il fetch, ispeziona l’HTML renderizzato, verifica contenuto principale, link interni, canonical, titolo e dati strutturati.
«Il problema principale con la CSR è che, se qualcosa va storto durante la trasmissione, l’utente potrebbe non vedere alcun contenuto. Questo può avere anche implicazioni SEO.»
Quel monito di Martin Splitt, Developer Advocate di Google, è il problema del giorno di lancio spiegato in parole semplici. Il rendering lato client non è il male — è fragile al lancio perché uno script fallito, un bug di hydration, un problema di route o un asset bloccato possono trasformare una pagina piena di contenuti in un guscio vuoto.
Se il sito usa molto JavaScript, aggiungi un passaggio di SEO per JavaScript. Il view-source non basta: conta il DOM renderizzato.
Se gli URL sono cambiati, la mappatura dei redirect è obbligatoria: è il ponte tra i segnali guadagnati del sito vecchio e la nuova struttura.
«Se gli URL cambiano e i vecchi non sono mappati correttamente ai nuovi con 301, il sito rischia di perdere un serio potere SEO.»
Glenn Gabe, Founder di G-Squared Interactive, è diretto perché il fallimento è comune. Gli URL vecchi reindirizzano alla homepage, partono 302 invece di 301, le catene di redirect si accumulano tra vecchi percorsi CMS, regole di slash, HTTP→HTTPS e cartelle di locale (di solito perché nessuno possiede la mappa di migrazione). Gli URL con query string vengono abbandonati senza controllare backlink o traffico.
Scansiona la lista di URL vecchi dopo il lancio (il nuovo sito è la metà facile). È lì che si nasconde la perdita di traffico. Non limitarti a scansionare il nuovo sito e dichiarare vittoria.
Google può seguire i redirect — l’obiettivo non è testare la sua pazienza. Mantieni i percorsi diretti.
Molte checklist mettono “invia la sitemap” in cima come se forzasse l’indicizzazione. Google Search Central dice che l’invio della sitemap è “solo un suggerimento” e non garantisce download, scansione o utilizzo.
Le sitemap restano utili: aiutano la scoperta, mostrano problemi di reportistica e offrono a Search Console una superficie pulita. Contano di più quando il sito è nuovo, ha pochi link esterni, molte pagine o URL difficili da raggiungere tramite link interni.
Una volta ho visto una sitemap piena di URL reindirizzati nascondere il vero problema: le nuove pagine canonical avevano pochi link.
lastmod solo se il CMS lo scrive con precisione.L’invio della sitemap è logistica. L’indicizzazione si merita.
Tutti dicono che il tracciamento è a posto. Poi si rompe la thank-you page, il banner di consenso, l’evento di checkout o il referral cross-domain.
Prima di discutere di ranking, dimostra che la misurazione funziona. GA4 deve attivarsi su ogni template pubblico. Search Console deve essere verificata per la proprietà corretta (protocollo, sottodominio e dominio contano). Bing Webmaster Tools entra in checklist se il sito dipende da Bing, Copilot o traffico da search enterprise.
Il team deve capire se il traffico è cambiato per ranking, indicizzazione, misurazione, stagionalità o un redirect rotto. Senza baseline, la riunione post-lancio diventa un’ipotesi con grafici.
Il Web Almanac HTTP Archive 2025 mostra perché le performance meritano attenzione al day zero. HTTPS e tag title sono ormai comuni: HTTPS appare su circa il 91,7 % delle pagine desktop e 91,5 % mobile, i title tag sul 98,6 % desktop e 98,5 % mobile. I Core Web Vitals sono più deboli: tasso di passaggio desktop 56 %, mobile 48 %.
Ciò significa che i Core Web Vitals sono uno dei punti più comuni dove i lanci falliscono — lontano da un compito marginale.
INP è diventato un Core Web Vital stabile il 12 marzo 2024, sostituendo FID. Le soglie sono semplici: 200 ms o meno è buono; da oltre 200 ms a 500 ms da migliorare; sopra 500 ms è scarso. Il Web Almanac riporta che il 77 % delle pagine mobile passa INP, contro il 97 % desktop. Solo il 53 % dei top 1 000 siti passa, indice di grandi siti pesanti di JavaScript.
CrUX usa una finestra rolling di 28 giorni, quindi le nuove pagine potrebbero non avere subito dati field. Usa Lighthouse, PageSpeed Insights (lab), WebPageTest, RUM e test a livello di template finché i dati field non maturano.
La gente vede “Discovered, currently not indexed” e ricomincia a inviare URL. Può aiutare Google a ritrovare una pagina, ma non la rende degna di indicizzazione.
«Nella maggior parte dei casi si tratta però di qualità complessiva del sito.»
Questa frase di John Mueller, Search Advocate di Google, è uno schiaffo utile. La maggior parte delle checklist post-lancio tratta l’indicizzazione come un problema di configurazione. Mueller la riposiziona come problema di qualità.
Verifica che le pagine importanti siano linkate da navigazione crawlable, hub, breadcrumb o blocchi di contenuti correlati. Cerca link nel body spariti durante il redesign. Esamina pagine location, categoria, tag o programmatiche sottili che si sono moltiplicate. Assicurati che il contenuto unico non sia sepolto sotto tab, script o hero copy generici.
Qui entra in gioco la strategia di link interni. I link interni non sono solo percorsi di crawl, sono priorità editoriale: se il sito non punta a una pagina, sta dicendo ai motori che non è centrale.
I metadata contano ancora: vanno solo messi nel giusto livello.
Il Web Almanac 2025 ha trovato tag canonical su circa il 68 % delle pagine desktop e 67 % mobile. I title sono quasi universali. HTTPS è comune. Questi sono controlli di base, non il punto dove si nascondono i disastri di lancio più seri.
In un restyling, lo schema di staging con review finte è finito in produzione. Il problema era visibile a chiunque aprisse il sorgente.
Fai il lavoro, ma non confondere il completamento dei metadata con la sicurezza del lancio.
La policy sui crawler AI ora è una decisione da day zero (nel 2026 non è più opzionale). Il Web Almanac 2025 ha rilevato regole gptbot nel robots.txt sul 4,5 % delle pagine desktop e 4,2 % mobile, +55 % YOY. Le regole claudebot quasi raddoppiano: 3,6 % desktop e 3,4 % mobile.
Consentire GPTBot non garantisce visibilità nella ricerca AI, ma il robots.txt viene sempre più usato per controllare l’accesso dei crawler AI: il team di lancio deve avere una policy documentata.
Gli URL rotti possono distruggere le trail di citazioni che i sistemi di risposta usano. Mantieni crawlable le pagine che dimostrano chi sei.
Giorno 0 è accesso e rendering. Giorno 1 redirect, analytics e report sitemap. Giorni 2-7 rilevamento pattern.
La pazienza conta: non ogni calo è un disastro. Ma ogni calo non misurato diventa una discussione politica.
Dopo la prima settimana, smetti di cercare solo errori catastrofici e inizia a migliorare i sistemi deboli.
Qui un setup di monitoraggio SEO pagato a dovere inizia a ripagarsi. Non puoi giudicare ogni risultato SEO in 48 ore, ma puoi giudicare se il sistema sta migliorando.
Se hai solo un’ora, controlla accesso crawler, rendering, redirect, canonical, analytics e sitemap. Se questi passano, il lancio probabilmente non è in fiamme. Da lì inizia il vero lavoro SEO.
Esegui i controlli di accesso, rendering, robots, status code, canonical, analytics e redirect nella prima ora. Esegui sitemap, Search Console e crawl degli URL vecchi il primo giorno. Monitora indicizzazione, log, ranking e conversioni per la prima settimana.
No. Google dice che l’invio della sitemap è “solo un suggerimento”. Invia la sitemap perché aiuta scoperta e reportistica, soprattutto per siti nuovi o grandi. Non trattarla come un pulsante di indicizzazione.
I fallimenti più costosi sono crawl bloccato, rendering rotto, redirect sbagliati, canonical errati e misurazione mancante. Gli errori di metadata sono più facili da correggere quando il sito è stabile.
Entrambi, ma scansiona la lista di URL vecchi dopo il lancio. È lì che emergono equity persa, backlink rotti, mapping errati e redirect alla homepage. Questo è SEO di migrazione.
Testa subito con strumenti lab e RUM. I dati field CrUX usano una finestra di 28 giorni, quindi le pagine nuove potrebbero avere bisogno di tempo prima di report stabili.
SEOJuice è progettato per aiutare i team a individuare il lavoro che cambia i risultati: link interni rotti, priorità deboli delle pagine, contesto mancante e problemi SEO post-lancio che si nascondono sotto la superficie. Se il tuo sito è appena andato online, inizia con i controlli di triage sopra e usa SEOJuice per mantenere il ritmo del cleanup.
no credit card required