Ik heb gezien hoe Google drie websites van klanten bestrafte. Elke keer zei de oprichter: "Ik wist het niet." En elke keer was dat ook echt zo — ze hadden iemand ingehuurd om "SEO te doen" en vertrouwden op het proces zonder ooit te vragen wat dat proces precies inhield.
Eén site verloor van de ene op de andere dag 80% van het verkeer toen Google ontdekte dat het backlinkprofiel was opgebouwd met een privéblognetwerk (PBN). De oprichter had geen idee wat een PBN was. Het bureau had het nooit genoemd. Bij een andere site verdwenen de rankings twee weken lang omdat een ontwikkelaar een staging-update live zette met een noindex-tag die niemand had opgemerkt. Een derde kreeg een klap bij een core update na het publiceren van 200 AI-gegenereerde artikelen zonder menselijke redactie — het contentteam dacht dat "AI-content" de strategie was, in plaats van een hulpmiddel dat een strategie ondersteunt.
Dit waren geen kwaadaardige bedrijven. Het waren drukke teams die beslissingen namen die logisch klonken, zonder de risico's echt te begrijpen. Dit artikel is voor hen — en voor iedereen die black hat wil vermijden en wil snappen waar de grenzen liggen, want een paar van die grenzen zijn de laatste tijd behoorlijk verschoven.
| Categorie | Definitie | Voorbeelden | Risico |
|---|---|---|---|
| White Hat | Volledig in lijn met de richtlijnen van Google. Behaalt rankings dankzij kwaliteit en technische uitmuntendheid. | Origineel onderzoek, legitieme gastblogs, gestructureerde data, paginasnelheid, toegankelijkheid | Nul. Dit is precies wat Google wil. |
| Gray Hat | Niet expliciet verboden, maar zoekt wel de grenzen op. Handhaving is inconsistent. | AI-content met lichte bewerking, linkruil, redirects vanaf verlopen domeinen, agressieve ankerteksten | Gemiddeld. Wat vandaag grijs is, kan morgen zwart zijn. |
| Black Hat | Overtreedt direct het spambeleid. Manipuleert rankings via misleiding. | Keyword stuffing, cloaking, PBN-links, verborgen tekst, doorway pages, parasite SEO | Hoog. Een handmatige maatregel, verwijdering uit de index of een algoritmische straf. |
De grens tussen grijs en zwart verschuift voortdurend. Linkruil was in 2015 heel normaal. Vandaag noemt Google "excessive link exchanges" expliciet een linkschema in het spambeleid. Daarom raad ik niemand gray hat-tactieken aan — je bouwt op grond die bij de volgende core update zomaar onder je voeten vandaan kan worden getrokken.


Elke black hat-tactiek heeft een houdbaarheidsdatum. Op basis van cases die ik zelf heb gezien en goed gedocumenteerde voorbeelden uit de industrie, is dit ongeveer hoe lang elke tactiek werkt:
| Tactiek | Typische levensduur | Detectiemethode | Straf |
|---|---|---|---|
| Keyword stuffing | Dagen tot weken | Algoritmisch (SpamBrain) | Lagere rankings, handmatige maatregel |
| Verborgen tekst/links | 14 dagen (gedocumenteerde case uit 2025) | Handmatige controle + algoritmisch | Handmatige maatregel |
| PBN-links | 3–12 maanden | Analyse van linkpatronen | Handmatige maatregel, tot 80% verkeersverlies |
| Cloaking | Weken tot maanden | Vergelijking tussen Googlebot- en gebruikerscontent | Verwijdering uit de index |
| Parasite SEO | Maanden (primair doelwit in 2025–2026) | Handmatige controle, beleid tegen misbruik van sitereputatie | Handmatige maatregel op het domein waarop het staat |
| AI-content op schaal (onbewerkt) | 1–3 maanden | Core updates, kwaliteitsbeoordelaars | Sitebrede rankingdaling |
| Links inkopen | Maanden tot jaren (verschilt sterk) | Analyse van linkpatronen, spamrapporten | Handmatige maatregel (het aandeel van Expedia daalde 4,5% na hun handmatige maatregel) |
De case die me het meest is bijgebleven: Rap Genius verloor 700.000 unieke bezoekers per dag nadat hun linkschema was ontdekt. Ze wisten dat het riskant was. Ze deden het toch. Het herstel duurde maanden. De echte kosten waren niet alleen de straf — het waren de maanden die opgingen aan herstel in plaats van groei. Elke dag in herstelmodus is een dag waarop je concurrenten je verder voorbijstreven.
Dit is de vraag die ik het vaakst krijg, dus laat ik zo duidelijk mogelijk zijn op basis van wat ik weet uit de gepubliceerde richtlijnen van Google en wat ik zie op de sites die we monitoren.
Nee, Google bestraft content niet simpelweg omdat die met AI-tools is gemaakt. Dat is consistent sinds de update van de richtlijnen van Google in maart 2024 en dat is niet veranderd. Google kijkt ernaar of content nuttig is, niet hoe die tot stand is gekomen.
Wat Google wél bestraft, is misbruik via content op schaal — het massaal produceren van content die bedoeld is om rankings te manipuleren, ongeacht of een mens of een machine die heeft geschreven. Hier ligt de grens, op basis van onze observaties:
| Aanpak | Standpunt van Google | Risico |
|---|---|---|
| Schrijven met AI-ondersteuning plus menselijke redactie en expertise | Helemaal prima. Dit is gewoon een tool gebruiken. | Geen |
| AI-eerste versie, daarna grondig herschreven door een domeinexpert | Prima. Het eindproduct bevat menselijke expertise. | Geen |
| AI-gegenereerd, gepubliceerd na lichte redactie | Grijs gebied. Hangt af van kwaliteit en uniciteit. | Laag tot gemiddeld |
| Massaal gepubliceerde AI-content zonder menselijke redactie | Misbruik via content op schaal. Overtreedt het spambeleid. | Hoog. Sitebrede demotie. |
| AI-content die first-person ervaring nabootst die de auteur niet heeft | Misleidend. Faalt op E-E-A-T. | Gemiddeld tot hoog |
Mijn eigen werkwijze: ik gebruik elke dag AI-tools voor research, outlines en eerste versies. Alles wat ik publiceer gaat door mijn eigen redactieronde, waarin ik persoonlijke ervaring toevoeg, generieke opvultekst verwijder en claims fact-check. De AI brengt me 60% sneller op weg. De laatste 40% — het deel dat content echt nuttig maakt — is mensenwerk. Als je wilt checken hoe je content leest, probeer dan onze AI content detector.
Even een zijspoor over de core update van maart 2026: die raakte sites die low-quality content op schaal uitrolden, en veel van die sites gebruikten toevallig AI. Maar correlatie is geen causaliteit. Ze werden geraakt omdat de content op schaal van lage kwaliteit was, niet omdat die door AI was gegenereerd. Sites die AI gebruikten met goede redactionele controle kwamen er prima doorheen. Dat weet ik omdat meerdere van onze gebruikers in die categorie vallen, en hun verkeer bleef stabiel tijdens de update.

Herstel is pijnlijk, maar mogelijk. De gemiddelde hersteltijd voor handmatige maatregelen is ongeveer 67 dagen. Algoritmische straffen kunnen 4–6 maanden duren, omdat je moet wachten op de volgende core update die je site opnieuw beoordeelt.
Eén herstelverhaal waar ik steeds aan terugdenk: een site verloor van de ene op de andere dag 6.000 keywordposities door een algoritmische straf. Na het systematisch oplossen van kwaliteitsproblemen en het disavowen van toxische links herstelden ze niet alleen — hun verkeer verdrievoudigde en hun omzet verdubbelde. De straf dwong hen om problemen aan te pakken die ze al jaren negeerden. Soms is een straf de wake-up call die je nodig had. Wel een dure, helaas.
Niets hiervan is spannend. Alles hiervan stapelt zich op:
Ja. Negative SEO (concurrenten die spamlinks naar jouw site bouwen) bestaat echt, maar komt zelden voor. Zie je ineens een golf aan spammy backlinks die je niet zelf hebt opgebouwd, gebruik dan de disavow tool van Google. Controleer ook of een eerder SEO-bureau tactieken heeft gebruikt waar jij niets van wist — ik heb dit zien gebeuren met PBN-links waar de klant nooit van op de hoogte was.
Check GSC op handmatige maatregelen. Staat daar niets, vergelijk dan het moment van je verkeersdaling met bekende Google-updates. Valt de daling samen met een update, dan is het algoritmisch. Is de daling geleidelijk en zonder duidelijke trigger, dan kan het ook gewoon komen doordat concurrenten je voorbijstreven, en helemaal geen straf zijn.
Niet voor SEO-doeleinden. Voor advertenties en verkeer: ja — zolang ze rel="nofollow" of rel="sponsored"-attributen hebben. Het beleid van Google is op dit onderscheid heel duidelijk.
Sneller dan ooit. SpamBrain kan patronen van linkspam, cloaking en manipulatieve content binnen enkele weken herkennen. De gedocumenteerde case met verborgen tekst die in 14 dagen werd gepakt, is niet uitzonderlijk. De detectiesnelheid is alleen maar toegenomen sinds de updates van maart 2026.
Alleen als je duidelijk toxische links ziet (overduidelijke spamdomeinen, PBN-footprints, irrelevante anderstalige sites met exact-match ankerteksten). Disavow niet te agressief — Google is over het algemeen prima in staat om spamlinks zelf te negeren. Te veel disavowen kan juist schade doen doordat je links verwijdert die je eigenlijk hielpen.
no credit card required
No related articles found.