Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →TL;DR: De beste SEO-checklist na livegang is korter dan je denkt. Een lancering loopt zelden mis omdat iemand één meta-beschrijving vergat. Ze mislukt omdat Google de nieuwe URL’s niet kan crawlen, renderen, vertrouwen of koppelen aan de opgebouwde autoriteitssignalen. Controleer daarom eerst toegankelijkheid, rendering, redirects, canonicals, analytics en sitemaps. Als die in orde zijn, staat de site waarschijnlijk niet in brand. Dan kun je de kamer opruimen.
Ik heb klantensites uitgerold via mindnow, vadimkravcenko.com opnieuw opgebouwd en werk nu aan seojuice.io met statisch-georiënteerde publieke pagina’s plus app-onderdelen die niet hoeven te ranken. De paniek na livegang gaat zelden over “we zijn één alt-attribuut vergeten”. Het is eerder “de nieuwe React-route levert een lege schelp op”, “de oude URL-mapping heeft gaten” of “Search Console meldt gedetecteerd maar niet geïndexeerd en niemand wil toegeven dat de pagina’s mager zijn”.
Dat kader moet doorbroken worden. Een post-launch SEO-checklist is een triagesysteem, geen spreadsheet waarin elke rij even zwaar weegt. Eerst het bloeden stelpen—dán poetsen.
Standaard checklists vlakken risico’s af. Een ontbrekende meta-beschrijving en een geblokt robots.txt horen niet in dezelfde categorie. Net zo min als een trage hero-afbeelding en een kapotte 301-mapping van de oude site.
Het eerste uur draait om bewijs (hier slaan de meeste teams over). Kunnen crawlers de pagina’s bereiken? Ziet Google de beoogde URL, canonical, content en status? Hebben oude URL’s, interne links, analytics en citaties het overleefd? Pas daarna begint het verbeterwerk.
| Prioriteitsniveau | Wat het opspoort | Wanneer controleren | Voorbeeldfout |
|---|---|---|---|
| Toegang | Crawl-blokkades en noindex-regels | Eerste 60 minuten | Productie draait met staging robots.txt |
| Identiteit | Status, canonicals, gerenderde content | Eerste dag | Canonical wijst naar de verkeerde locale |
| Continuïteit | Redirects, links, analytics, citaties | Dag 0 t/m 7 | Oude URL’s redirecten naar de homepage |
| Verbetering | Metadata, schema, contentkwaliteit, snelheid | Vanaf week 2 | Categorie-templates hebben sterkere copy nodig |
Daarom start een goede technische SEO-audit na livegang met faalscenario’s, niet met versiering. Lanceringen zijn politiek; zonder volgorde wordt elke meeting theater.
Ga er niet van uit dat “de site laadt in Chrome” betekent dat Google de content ziet. Chrome is jouw browser. Googlebot is een crawler met renderstappen, crawlwachtrijen, geblokkeerde resources en een andere taak.
Begin met de productie-robots.txt. Bevestig dat de secties die moeten ranken toegestaan zijn. Controleer daarna meta-robots-tags, x-robots-tag-headers, HTTP-statuscodes en canonical-tags. Live-pagina’s moeten 200 teruggeven. Permanente redirects moeten 301 teruggeven. Verwijderde pagina’s 404 of 410. Canonicals moeten zelfreferentieel zijn of bewust consolideren.
Gebruik vervolgens URL-inspectie in Google Search Console. Test één URL van elk indexeerbaar paginatype: homepage, categorie, product, artikel, locatie, programmatic page en elke nieuwe template. Fetch de pagina. Inspecteer de gerenderde HTML. Zoek naar de hoofdcontent, interne links, canonical, titel en gestructureerde data.
“Het grootste probleem met CSR is meestal dat, als er iets misgaat tijdens de transmissie, de gebruiker geen enkele content ziet. Dat kan ook SEO-gevolgen hebben.”
Die waarschuwing van Martin Splitt, Developer Advocate bij Google, is het probleem op lanceerdag in gewone taal. Client-side rendering is niet slecht—ze is fragiel bij livegang omdat één mislukte script, hydration-bug, route-issue of geblokte asset een pagina kan veranderen in een lege schelp.
Als de site zware JavaScript gebruikt, voeg dan een JavaScript SEO-ronde toe. View source is niet genoeg; de gerenderde DOM telt.
Als URL’s veranderd zijn, is een redirect-mapping verplicht. Die vormt de brug tussen de oude opgebouwde signalen en de nieuwe structuur.
“Als urls veranderen en de oude urls niet correct via 301 worden gemapt naar de nieuwe, riskeert de site serieuze SEO-schade.”
Glenn Gabe, oprichter van G-Squared Interactive, is recht-voor-zijn-raap omdat de fout vaak voorkomt. Oude URL’s redirecten naar de homepage. 302’s worden ingezet in plaats van 301’s. Redirect-ketens stapelen oude CMS-paden, trailing slash-regels, HTTP-naar-HTTPS en locale-mappen (meestal omdat niemand eigenaar is van de migratiemap). Query-string-URL’s verdwijnen zonder backlinks of verkeer te checken.
Crawl de oude URL-lijst na livegang (de nieuwe site is het makkelijke deel). Dáár verstopt zich verkeersverlies. Crawl niet alleen de nieuwe site om vervolgens victorie te kraaien.
Google kan redirects volgen—het doel is niet om Google’s geduld te testen. Houd paden direct.
De meeste checklists zetten “sitemap indienen” hoog alsof het indexering afdwingt. Google Search Central zegt dat het indienen van een sitemap “slechts een hint” is en geen download, crawl of gebruik garandeert.
Sitemaps zijn nog steeds nuttig — ze helpen bij ontdekking, onthullen rapportageproblemen en geven Search Console een schone dataset. Ze tellen het meest als een site nieuw is, weinig externe links heeft, veel pagina’s bevat of URL’s heeft die via interne links lastig te vinden zijn.
Ik zag ooit hoe een sitemap vol redirects het echte probleem verborg: de nieuwe canonical-pagina’s werden amper gelinkt.
lastmod alleen als het CMS het accuraat schrijft.Sitemap-indiening is logistiek. Indexering moet verdiend worden.
Iedereen zegt dat tracking geregeld is. Dan breekt de bedankpagina, consentbanner, checkout-event of cross-domain-verwijzing toch.
Voordat je over rankings discussieert, bewijs dat de meting werkt. GA4 moet op elke publieke template afvuren. Search Console moet op het juiste propertytype zijn geverifieerd (protocol, sub- en hoofddomein tellen). Bing Webmaster Tools hoort in de checklist als de site afhankelijk is van Bing, Copilot-surfaces of enterprise search-verkeer.
De lezer moet weten of verkeer verandert door rankings, indexering, meting, seizoensinvloeden of een kapotte redirect. Zonder nulmetingen wordt de post-launch-meeting een gokspel met grafieken.
Het HTTP Archive Web Almanac 2025 laat zien waarom performance lanceerdag-aandacht verdient. HTTPS en title-tags zijn nu gemeengoed: HTTPS staat op ~91,7 % van desktop- en ~91,5 % van mobiele pagina’s, title-tags op ~98,6 % respectievelijk ~98,5 %. Core Web Vitals scoren zwakker: desktop haalt 56 %, mobiel 48 %.
Core Web Vitals zijn dus een van de meest voorkomende plekken waar lanceringen misgaan — verre van een randopruimklus.
INP is sinds 12 maart 2024 een stabiele Core Web Vital en vervangt FID. De drempels zijn eenvoudig: ≤200 ms is goed; 200-500 ms behoeft verbetering; >500 ms is slecht. Het Web Almanac meldt dat 77 % van mobiele pagina’s INP haalt, versus 97 % op desktop. Slechts 53 % van de top 1000 sites slaagt, wat iets zegt over zware JS-sites.
CrUX gebruikt een rollend venster van 28 dagen, dus nieuwe pagina’s hebben niet direct fielddata. Gebruik Lighthouse, PageSpeed Insights-labdata, WebPageTest, RUM en template-tests tot de fielddata volwassen is.
Mensen zien “Gedetecteerd, momenteel niet geïndexeerd” en gaan URL’s opnieuw indienen. Dat kan Google helpen de pagina opnieuw te vinden. Het maakt de pagina niet de moeite waard om te indexeren.
“In de meeste gevallen gaat het echter om de algehele kwaliteit van de website.”
Die uitspraak van John Mueller, Search Advocate bij Google, is een nuttige tik op de vingers. De meeste post-launch-checklists behandelen indexering als een configuratieprobleem. Mueller zet het neer als een kwaliteitsprobleem.
Controleer of belangrijke pagina’s gelinkt zijn vanuit crawlbare navigatie, hubs, breadcrumbs of gerelateerde contentblokken. Zoek naar body-links die verdwenen tijdens de redesign. Bekijk dunne locatie-, categorie-, tag- of programmatic-pagina’s die zich hebben vermenigvuldigd. Zorg dat unieke content niet verstopt zit achter tabs, scripts of generieke hero-copy.
Hier telt de interne-linkstrategie. Interne links zijn niet alleen crawlpaden; ze tonen redactionele prioriteit. Als de site niet naar een pagina verwijst, zegt hij tegen zoekmachines dat die pagina niet centraal staat.
Metadata telt nog steeds. Het hoort alleen in de juiste laag.
Het Web Almanac 2025 vond canonical-tags op ~68 % van desktop- en ~67 % van mobiele pagina’s. Titels zijn bijna universeel. HTTPS is gangbaar. Dit zijn hygiënechecks, niet de plek waar de meeste ernstige lanceringscalamiteiten schuilen.
Bij één rebuild haalde schema van staging met nep-reviewmark-up de productie. Het probleem was zichtbaar voor iedereen die view-source draaide.
Doe het werk. Verwar alleen metadata-volledigheid niet met livegang-veiligheid.
AI-crawlerbeleid is nu een lanceerdagbeslissing (in 2026 is dit niet optioneel). Het Web Almanac 2025 vond gptbot-regels in robots.txt op 4,5 % van desktop- en 4,2 % van mobiele pagina’s, een YOY-groei van ~55 %. claudebot-regels verdubbelden bijna naar 3,6 % desktop en 3,4 % mobiel.
Dit betekent niet dat GPTBot toestaan AI-zoekzichtbaarheid garandeert. Het betekent dat robots.txt steeds vaker wordt gebruikt om AI-crawlers te sturen, en dat het launch-team één gedocumenteerd beleid nodig heeft.
Kapotte URL’s kunnen citatensporen vernietigen waarop zoeksystemen en antwoordengines vertrouwen. Houd de pagina’s die bewijzen wie je bent crawlbaar.
Dag 0 is toegang en rendering. Dag 1 redirects, analytics en sitemap-rapporten. Dag 2-7 patroondetectie.
Geduld telt—niet elke dip is een ramp. Maar elke ongemeten dip wordt een politiek debat.
Nadat de eerste week voorbij is, jaag niet alleen op catastrofale fouten. Verbeter zwakke systemen.
Hier begint een degelijke SEO-monitoringsetup zich terug te betalen. Je kunt niet elke SEO-uitkomst in 48 uur beoordelen. Je kunt wel beoordelen of het systeem gezonder wordt.
Heb je maar één uur, controleer dan crawltoegang, rendering, redirects, canonicals, analytics en de sitemap. Als die slagen, staat de lancering waarschijnlijk niet in brand. Dan begint het echte SEO-werk.
Voer binnen het eerste uur de checks uit op toegang, rendering, robots, statuscode, canonical, analytics en redirects. Draai sitemap-, Search Console- en oude-URL-crawls op dag één. Monitor indexering, logs, rankings en conversies gedurende de eerste week.
Nee. Google zegt dat sitemap-indiening “slechts een hint” is. Dien hem in omdat het ontdekking en rapportage helpt, vooral bij nieuwe of grote sites. Zie het niet als indexeerknop.
De duurste fouten zijn geblokte crawling, kapotte rendering, slechte redirects, verkeerde canonicals en ontbrekende meting. Metadata-fouten zijn eenvoudiger te fixen zodra de site stabiel is.
Beide, maar crawl na livegang vooral de oude URL-lijst. Daar komen verloren equity, kapotte backlinks, foute mappings en homepage-redirects boven water. Dit is core site-migratie-SEO.
Test direct met labtools en RUM. CrUX-fielddata werkt met een rollend venster van 28 dagen, dus nieuwe pagina’s hebben tijd nodig voordat stabiele field-rapportage verschijnt.
SEOJuice helpt teams om het werk te pakken dat resultaten verandert: kapotte interne links, zwakke paginaprioriteit, ontbrekende context en SEO-problemen die na livegang onder de radar blijven. Is je site net live? Begin met de triagechecks hierboven en gebruik daarna SEOJuice om de schoonmaak op gang te houden.
no credit card required
No related articles found.