Ho visto Google penalizzare tre siti di clienti. Ogni volta, il fondatore diceva: "Non lo sapevo." E ogni volta diceva la verità — avevano assunto qualcuno per fare SEO e si erano fidati del processo senza chiedersi in cosa consistesse davvero.
Un sito ha perso l'80% del traffico da un giorno all'altro quando Google ha scoperto che il suo profilo di backlink era stato costruito su una private blog network. Il fondatore non aveva la minima idea di cosa fosse una PBN. L'agenzia non l'aveva mai nemmeno nominata. Un altro sito ha visto sparire i posizionamenti per due settimane perché uno sviluppatore ha pubblicato un aggiornamento di staging con un flag no-index e nessuno se n'è accorto. Un terzo è stato colpito durante un core update di Google dopo aver pubblicato 200 articoli generati con AI senza alcuna revisione umana — il team editoriale pensava che i contenuti AI fossero la strategia, non uno strumento al servizio di una strategia.
Non erano aziende malvagie. Erano team sommersi di lavoro che prendevano decisioni apparentemente sensate senza capire bene i rischi. Questo articolo è per loro — e per chiunque voglia capire dove passa il confine nel 2026, perché alcuni di quei confini si sono spostati di recente.
| Categoria | Definizione | Esempi | Rischio |
|---|---|---|---|
| White Hat | Pienamente conforme alle linee guida di Google. Ottiene buoni posizionamenti grazie alla qualità e all'eccellenza tecnica. | Ricerche originali, guest post legittimi, dati strutturati, velocità di caricamento, accessibilità | Zero. È esattamente ciò che Google vuole. |
| Gray Hat | Non è esplicitamente vietata, ma si muove al limite. I controlli non sono sempre coerenti. | Contenuti AI con editing leggero, scambi di link, redirect da domini scaduti, anchor text aggressivi | Medio. Ciò che oggi è gray hat, domani potrebbe diventare black hat. |
| Black Hat | Viola direttamente le norme anti-spam. Manipola i posizionamenti attraverso pratiche ingannevoli. | Keyword stuffing, cloaking, link da PBN, testo nascosto, doorway pages, parasite SEO | Alto. Azione manuale di Google, deindicizzazione o penalizzazione algoritmica. |
Il confine tra gray hat e black hat cambia continuamente. Gli scambi di link erano pratica comune nel 2015. Oggi le norme anti-spam di Google elencano esplicitamente gli "scambi di link eccessivi" come schema di link. Ecco perché non consiglio tattiche gray hat a nessuno — stai costruendo su un terreno che potrebbe sparire sotto i piedi al prossimo core update di Google.


Ogni tattica black hat ha una data di scadenza. In base ai casi che ho osservato direttamente e agli esempi documentati nel settore, ecco più o meno quanto tende a funzionare ciascuna:
| Tattica | Durata tipica | Metodo di rilevamento | Penalità |
|---|---|---|---|
| Keyword stuffing | Da giorni a settimane | Algoritmico (SpamBrain) | Perdita di posizioni nei risultati, azione manuale di Google |
| Testo/link nascosti | 14 giorni (caso documentato nel 2025) | Revisione manuale + algoritmica | Azione manuale di Google |
| Link da PBN | 3–12 mesi | Analisi degli schemi di link | Azione manuale di Google, fino all'80% di perdita di traffico |
| Cloaking | Da settimane a mesi | Confronto tra contenuto visto da Googlebot e contenuto visto dagli utenti | Deindicizzazione |
| Parasite SEO | Mesi (obiettivo primario nel 2025–2026) | Revisione manuale, norme sull'abuso della reputazione del sito | Azione manuale di Google sul dominio host |
| Contenuti AI su larga scala (non revisionati) | 1–3 mesi | Core update di Google, quality raters | Demotion generalizzata del ranking del sito |
| Acquisto di link | Da mesi ad anni (varia molto) | Analisi degli schemi di link, segnalazioni spam | Azione manuale di Google (dopo la loro, il titolo Expedia è sceso del 4,5%) |
Il caso che mi è rimasto più impresso: Rap Genius ha perso 700.000 visitatori unici al giorno dopo che il suo schema di link è stato scoperto. Sapevano che era rischioso. L'hanno fatto comunque. Il recupero ha richiesto mesi. Il vero costo non è stata solo la penalità — sono stati i mesi passati a recuperare invece che a crescere. Ogni giorno in fase di recupero è un giorno in cui i tuoi concorrenti ti staccano.
Questa è la domanda che mi fanno più spesso, quindi provo a essere il più chiaro possibile in base a ciò che so dalle linee guida pubblicate da Google e da quello che ho osservato sui siti che monitoriamo.
No, Google non penalizza i contenuti solo perché sono stati creati con strumenti di AI. Questo è rimasto coerente dall'aggiornamento delle linee guida di Google di marzo 2024 e non è cambiato. A Google interessa se il contenuto è utile, non come è stato prodotto.
Quello che Google penalizza è lo scaled content abuse, cioè la produzione di massa di contenuti pensati per manipolare i posizionamenti, indipendentemente dal fatto che a scriverli sia stato un umano o una macchina. Ecco dove passa il confine, in base alle nostre osservazioni:
| Approccio | Posizione di Google | Rischio |
|---|---|---|
| Scrittura assistita da AI con editing umano ed esperienza reale | Nessun problema. Qui si tratta semplicemente di usare uno strumento. | Nessuno |
| Prima bozza AI, riscritta in modo sostanziale da un esperto del settore | Va bene. Il prodotto finale contiene competenza umana. | Nessuno |
| Contenuto generato con AI, pubblicato con una leggera correzione bozze | Zona grigia. Dipende dalla qualità e dall'unicità. | Da basso a medio |
| Contenuti AI pubblicati in massa, senza revisione umana | Scaled content abuse. Viola le norme anti-spam. | Alto. Demotion generalizzata del ranking del sito. |
| Contenuti AI che imitano un'esperienza in prima persona che l'autore non ha | Fuorviante. Non soddisfa l'E-E-A-T (Experience, Expertise, Authoritativeness, Trust). | Da medio ad alto |
La mia pratica personale: uso strumenti di AI ogni giorno per ricerca, outline e prime bozze. Tutto quello che pubblico passa da una mia revisione in cui aggiungo esperienza personale, tolgo il riempitivo generico e verifico i fatti. L'AI mi porta al 60% più velocemente. L'ultimo 40% — la parte che rende davvero utile il contenuto — è lavoro umano. Se vuoi controllare come suona il tuo contenuto, prova il nostro AI content detector.
Una nota a margine sul core update di Google di marzo 2026: ha colpito siti che stavano scalando contenuti di bassa qualità, e molti di quei siti usavano AI. Ma correlazione non significa causalità. Sono stati colpiti perché il contenuto era di bassa qualità e pubblicato su larga scala, non perché fosse generato con AI. I siti che usavano AI con una vera supervisione editoriale sono passati indenni. Lo so perché diversi nostri utenti rientrano in quella categoria, e il loro traffico è rimasto stabile durante l'aggiornamento.

Recuperare è doloroso, ma possibile. Il tempo medio di recupero per le azioni manuali è di circa 67 giorni. Le penalizzazioni algoritmiche possono richiedere 4–6 mesi perché devi aspettare il prossimo core update che rivaluti il tuo sito.
C'è una storia di recupero a cui torno spesso: un sito ha perso 6.000 posizioni keyword da un giorno all'altro per una penalizzazione algoritmica. Dopo aver corretto in modo sistematico i problemi di qualità e aver usato lo strumento disavow per i link tossici, non solo ha recuperato — il traffico è triplicato e i ricavi sono raddoppiati. La penalizzazione li ha costretti a sistemare problemi che ignoravano da anni. A volte la penalità è la sveglia di cui avevi bisogno. Una sveglia parecchio costosa, però.
Niente di tutto questo è particolarmente eccitante. Ma tutto si accumula nel tempo:
Sì. La negative SEO (concorrenti che costruiscono link spam verso il tuo sito) esiste, ma è rara. Se vedi un afflusso improvviso di backlink spam che non hai creato tu, usa lo strumento disavow di Google. Controlla anche se una precedente agenzia SEO ha usato tattiche di cui non eri a conoscenza — l'ho visto succedere con link da PBN che il cliente non sapeva nemmeno di avere.
Controlla GSC per vedere se ci sono azioni manuali. Se non c'è nulla, confronta il momento del calo di traffico con gli aggiornamenti noti di Google. Se il calo coincide con un aggiornamento, è algoritmico. Se è graduale e senza un segnale chiaro, potrebbe essere semplice perdita di terreno rispetto ai concorrenti, non una penalità.
Non per finalità SEO. Per promozione e traffico, sì — purché abbiano gli attributi rel="nofollow" o rel="sponsored". Le norme di Google su questo punto sono chiare.
Più velocemente che mai. SpamBrain può identificare schemi di link spam, cloaking e contenuti manipolativi nel giro di settimane. Il caso documentato del testo nascosto rilevato in 14 giorni non è affatto insolito. La velocità di rilevamento è solo aumentata con gli aggiornamenti di marzo 2026.
Solo se vedi link chiaramente tossici (domini spam evidenti, tracce di PBN, siti irrilevanti in lingua straniera con anchor text a corrispondenza esatta). Non usare il disavow in modo aggressivo — Google in genere è già bravo a ignorare da solo i link spam. Esagerare con il disavow può danneggiarti, perché rischi di rimuovere link che in realtà ti stavano aiutando.
no credit card required