-- Onderzoek geverifieerd aan de hand van Botify's crawlstudies, Google's officiële documentatie over crawl budget, en getoetst met echte site-audits op 200+ domeinen.
TL;DR: Orphan pages zijn pagina's op je site waar geen enkele andere pagina intern naartoe linkt. Google kan ze niet goed vinden, gebruikers kunnen er niet terechtkomen, en ze vreten stilletjes aan je crawl budget terwijl ze nul verkeer opleveren. Data van Botify laat zien dat orphan pages gemiddeld 26% van het crawl budget opslokken terwijl ze vrijwel niets bijdragen. In deze gids leg ik uit hoe je ze vindt, hoe je ze oplost en hoe je voorkomt dat ze terugkomen.

Een orphan page is elke pagina op je website waar precies nul interne links naartoe wijzen. Niet nul externe links -- nul interne links. Geen link in het navigatiemenu. Geen link in de sidebar. Geen link bij "gerelateerde artikelen". Geen link vanaf ergens anders op je eigen site.


De pagina bestaat gewoon op je server. Hij heeft een URL. Hij kan zelfs in je sitemap staan. Maar als je op je homepage zou beginnen en daarna op elke link op elke pagina zou klikken, dan zou je die pagina nooit bereiken. De pagina is onbereikbaar via de eigen navigatie van je site.
Waarom dat belangrijk is: de belangrijkste manier waarop Google pagina's ontdekt, is door links te volgen. Het begint bij bekende pagina's en volgt vervolgens elke link die het tegenkomt om nieuwe pagina's te vinden. Als er geen links naar een pagina wijzen, heeft Google geen route om er te komen. Het is alsof je een kamer in je huis hebt zonder deur.
Wij leerden dat op de pijnlijke manier. Tijdens onze migratie van seojuice.io naar seojuice.com eind 2024 hebben we na de livegang de site gecrawld en ontdekten we 837 orphan pages op onze eigen site. Achthonderdzevenendertig. Dat waren een mix van oude blogposts die hun links vanaf categoriepagina's kwijt waren geraakt in het redesign, tag-archiefpagina's die WordPress automatisch had aangemaakt maar waar onze nieuwe navigatie niet meer naar verwees, en een handvol landingspagina's van campagnes die we compleet vergeten waren. Voor een bedrijf dat SEO-tools verkoopt was dat -- diplomatiek gezegd -- tamelijk pijnlijk. Het heeft me ook in één week meer geleerd over orphan pages dan twee jaar erover schrijven ooit had gedaan.
"Internal linking is one of the biggest things that you can do on a website to kind of guide Google and guide visitors to the pages that you think are important. And with internal linking, you can tell Google and visitors which pages you consider important."
Vrij vertaald: interne links zijn een van de krachtigste manieren om Google en bezoekers te sturen naar de pagina's die jij belangrijk vindt. De keerzijde van Muellers punt is minstens zo belangrijk: als je niet naar een pagina linkt, vertel je Google eigenlijk dat die niet belangrijk is. En Google zal die pagina ook zo behandelen.
Niemand maakt bewust orphan pages aan. Ze hopen zich op in het gewone verloop van websitebeheer -- langzaam, onzichtbaar, als stof in serverracks. Dit zijn de meest voorkomende boosdoeners:
Site-redesigns en migraties. Je bouwt je navigatie opnieuw op. De oude categoriepagina die naar 40 blogposts linkte wordt vervangen door een nieuwe die naar 12 linkt. Die andere 28 posts zijn nu orphan pages. Dit is veruit de meest voorkomende oorzaak -- en precies waarom ik de post-launch SEO checklist heb geschreven. Onze eigen migratie bewees het nogal spectaculair: we hadden een redirect map voor URL's, maar niemand had een plan gemaakt voor interne links. De pagina's waren via de URL nog bereikbaar (redirects werkten), maar er linkte niets meer naartoe. Ander probleem, even schadelijk. Ik blijf hierop hameren omdat dit precies de fout is die ik elke lezer wil besparen.
Door het CMS gegenereerde pagina's. Tagpagina's, datumarchieven, auteurspagina's, gepagineerde resultaten -- je CMS maakt ze automatisch aan, maar vaak wordt er nergens zinnig naar gelinkt. Alleen WordPress kan hier al honderden van produceren. Ik schat (en ik ben oprecht niet helemaal zeker van dat getal) dat 30-50% van de orphan pages op een gemiddelde WordPress-site CMS-gegenereerde pagina's zijn waar niemand om heeft gevraagd en die niemand onderhoudt. Toen we onze eigen 837 orphan pages analyseerden, bleken 412 daarvan tag- en datumarchiefpagina's te zijn. Bijna de helft.
Oude landingspagina's. Die campagnepagina uit Q3 2024? Die promotie die 18 maanden geleden afliep? Staat nog steeds op je server, wordt nog steeds gecrawld, en draagt nog steeds niets bij. Niemand heeft hem verwijderd omdat niemand zich nog herinnerde dat hij bestond. Wij hadden er zelf 23 -- pagina's voor webinars, seizoensaanbiedingen en een Black Friday-campagne waarvan ik vrij zeker weet dat we die ooit één keer hebben gedraaid.
Wijzigingen in paginering. Je had eerst 50 producten per pagina, nu toon je er 100. Pagina's 6-10 van je oude paginering bestaan nog steeds, maar er linkt niets meer naartoe.
Geleidelijke content drift. Na verloop van tijd, terwijl je nieuwe content publiceert en oude navigatie-items verwijdert, verliezen pagina's die ooit goed verbonden waren langzaam hun links. Het is geen enkel moment waarop iets "kapot" gaat -- het is erosie. Dit is de lastigste variant om te herkennen, omdat er geen duidelijk breekpunt is. Het takelt gewoon langzaam af. We zien dit constant in SEOJuice-audits: een site die twee jaar geleden netjes intern gelinkt was, heeft ondertussen ongemerkt 50-80 orphan pages opgebouwd door niets dramatischer dan normaal contentbeheer.
Laat ik hier direct over zijn. Orphan pages zijn niet alleen dood gewicht -- ze schaden actief de prestaties van je site op drie meetbare manieren.
Google kent aan elke site een eindige hoeveelheid crawlresources toe. Dat is je crawl budget -- het aantal pagina's dat Googlebot in een bepaalde periode van je server opvraagt. Elk verzoek dat naar een orphan page gaat, is een verzoek dat niet naar een pagina gaat die er wél toe doet.
De cijfers zijn hard. Botify analyseerde enterprise-sites en ontdekte dat orphan pages gemiddeld 26% van het crawl budget verbruiken. Op slecht onderhouden sites loopt dat op tot 70%. TemplateMonster vond tijdens een migratie 3 miljoen orphan pages -- pagina's die actief crawlresources verbruikten terwijl 250.000 waardevolle commerciële pagina's helemaal niet werden gecrawld.
Voor kleine sites (onder 500 pagina's) is crawl budget meestal geen groot probleem -- Google crawlt uiteindelijk toch alles. Maar zodra je over een paar duizend pagina's heen gaat -- zeker met een CMS dat paginering, tags en archiefpagina's genereert -- beginnen orphan pages echt impact te hebben. Ik wil oppassen om dit voor kleinere sites niet groter te maken dan het is, want ik heb te veel SEO-artikelen gezien die onnodige paniek veroorzaken over crawl budget op een website met 200 pagina's. Als dat jouw situatie is, dan zijn orphan pages nog steeds de moeite waard om op te lossen (vanwege authority flow), maar crawl budget is waarschijnlijk niet je grootste probleem.
Interne links geven authority door (wat Google vroeger PageRank noemde) van de ene pagina naar de andere. Je homepage krijgt meestal de meeste externe links en heeft daardoor de meeste authority. Die authority stroomt via interne links naar subpagina's, die het weer doorgeven aan hun subpagina's, enzovoort.
Orphan pages zijn volledig afgesneden van die stroom. Ze ontvangen nul interne authority. Zelfs als de content uitstekend is, ziet Google een pagina waarvan je eigen site blijkbaar niet belangrijk genoeg vindt om naar te linken. Dat is een sterk negatief signaal. Toen wij onze 837 orphan pages opnieuw verbonden met de site (de pagina's die het waard waren om te redden, tenminste), zagen we binnen 4-6 weken meetbare rankingverbeteringen voor pagina's die op posities 15-30 hingen. Alleen door interne links toe te voegen. Geen contentwijzigingen.
In Google's documentatie over crawl budget staat het vrij letterlijk: pagina's zonder inkomende links worden mogelijk niet gecrawld, ongeacht hun belang. Als Google een pagina niet crawlt, kan het die niet indexeren. Als die niet geïndexeerd is, kan die niet ranken. En als die niet kan ranken, levert die nul organisch verkeer op.
Het venijnige? Dit gebeurt stilletjes. Je ziet geen foutmelding in Search Console. De pagina "breekt" niet. Ze houdt gewoon langzaam op te bestaan in Google's beeld van het internet. Wij ontdekten dat sommige van onze orphan blogposts volledig uit de index waren verdwenen -- Google was maanden geleden al gestopt met ze te bezoeken. De content was nog steeds goed. Er waren gewoon geen links meer.
| Impactgebied | Wat er gebeurt | Omvang van de schade |
|---|---|---|
| Crawl Budget | Orphan pages verbruiken crawlresources zonder verkeer op te leveren | Gemiddeld 26% verspilling (tot 70% op verwaarloosde sites) |
| Authority Flow | Pagina's ontvangen nul interne link equity -- en lijken onbelangrijk voor Google | Rankingpotentieel daalt tot bijna nul |
| Indexatie | Pagina's worden mogelijk nooit gecrawld, of verdwijnen na verloop van tijd uit de index | Botify: 60% van de pagina's gemiddeld niet gecrawld binnen 30 dagen |
| Gebruikerservaring | Gebruikers die orphan pages via zoekresultaten vinden, hebben geen navigatiepad naar de rest van je site | Hogere bounce rates, lagere engagement |
| Contentverval | Orphan pages verouderen sneller -- geen redactionele review omdat niemand ze ziet | Verouderde info schaadt vertrouwen in je merk |
Er zijn drie betrouwbare methodes. Ik gebruik ze alle drie, omdat elke methode dingen vindt die de andere mist. Tijdens onze audit na de migratie vond de sitemapvergelijking 743 orphan pages, Search Console markeerde er nog zo'n 60, en serverlog-analyse vond nog eens 94 extra die door geen van beide andere methodes werden opgepikt. De overlap was niet volledig -- elke methode heeft blinde vlekken.
Dit is de meest betrouwbare aanpak. Je hebt twee datasets nodig:
Set A: Elke URL in je XML-sitemap (wat jij denkt dat je site bevat).
Set B: Elke URL die wordt ontdekt door je site vanaf de homepage te crawlen (wat daadwerkelijk via links bereikbaar is).
Elke URL in Set A die niet in Set B zit, is een orphan page -- hij staat in je sitemap, maar is niet bereikbaar via interne links.
Je kunt dit doen met Screaming Frog, Sitebulb of elke crawler die kan vergelijken met een sitemap. In Screaming Frog: crawl je site in "Spider" mode en gebruik daarna "Crawl Analysis" -> "Orphan Pages" om de resultaten te zien.
GSC laat pagina's zien met de status "Discovered -- currently not indexed" of "Crawled -- currently not indexed". Dat zijn niet allemaal orphan pages, maar veel ervan wel. Leg deze URL's naast je interne linkdata. Als een pagina in GSC staat maar nul interne links heeft, dan heb je je orphan te pakken.
Je serverlogs laten elke URL zien die Googlebot opvraagt. Vergelijk dit met je crawldata. Een pagina die Googlebot bezoekt (gevonden via sitemap of oude cache), maar die je crawler niet vanaf de homepage kan bereiken, is een orphan page die actief crawl budget verbruikt.
Dit is de methode die de stiekeme orphan pages vangt -- pagina's die niet eens meer in je sitemap staan, maar die Google nog kent van een eerdere crawl. Spookpagina's die resources verbruiken maar in elk ander rapport onzichtbaar zijn. Toen we na de migratie onze eigen log-analyse deden, vond deze methode nog eens 94 orphan pages die de sitemapvergelijking volledig had gemist. Het waren oude URL's die we uit de sitemap hadden verwijderd, maar niet hadden doorgestuurd of verwijderd. Google bezocht ze nog steeds om de paar dagen, kreeg een 200-response, en verspilde crawl budget aan pagina's waarvan wij dachten dat we ze al hadden opgeruimd.
# Quick comparison: sitemap URLs vs. crawled URLs
# Export your sitemap URLs and crawled URLs as text files, then:
# Find URLs in sitemap that weren't found during crawl (potential orphans)
comm -23 <(sort sitemap_urls.txt) <(sort crawled_urls.txt) > orphan_candidates.txt
# Count them
echo "Potential orphan pages: $(wc -l < orphan_candidates.txt)"
# Cross-reference with server logs to see which are still being crawled
grep -f orphan_candidates.txt access.log | grep "Googlebot" > orphans_wasting_budget.txt
echo "Orphans actively wasting crawl budget: $(wc -l < orphans_wasting_budget.txt)"
Niet elke orphan page verdient dezelfde oplossing. Dit is mijn beslisproces, gevormd door het triagen van onze eigen 837:
Lees de pagina. Is de informatie nog actueel? Is er zoekvraag naar dit onderwerp? Krijgt de pagina überhaupt verkeer (check GSC)? Zo ja -- ga naar Stap 2. Zo nee -- ga naar Stap 3.
De simpelste oplossing. Zoek 3-5 pagina's op je site die inhoudelijk verwant zijn en voeg links toe naar de orphan page. Focus op:
Contextuele links in de bodytekst. Dit zijn de sterkste. Een link vanuit een relevante alinea in een gerelateerde blogpost is meer waard dan een link vanuit een sidebar-widget.
Navigatie- of categoriepagina's. Als de orphan page thuishoort in een specifieke sectie van je site, voeg hem dan toe aan de relevante categoriepagina of het navigatiemenu.
Secties met gerelateerde artikelen. Als je CMS een functie voor "related posts" heeft, zorg dan dat de orphan page in relevante resultaten verschijnt.
Belangrijkste takeaway
Link niet naar een orphan page vanaf een andere orphan page. Dan creëer je alleen een cluster van geïsoleerde pagina's die Google nog steeds niet vanuit je hoofdstructuur kan bereiken. Elke orphan page heeft minstens één link nodig vanaf een goed verbonden pagina. Wij maakten exact deze fout tijdens onze eerste oplossing: we linkten 30 orphan blogposts aan elkaar, waardoor we een klein eiland van 30 pagina's bouwden dat nog steeds losstond van de rest van de site. Mochten we dus opnieuw doen.
Niet elke pagina is het waard om gered te worden. Van onze 837 orphan pages waren er ongeveer 600 echt waardeloos -- automatisch gegenereerde tagarchieven, verlopen campagnepagina's en een paar conceptposts die per ongeluk gepubliceerd waren. Soms is verwijderen het juiste antwoord, niet redden. Dit zijn je opties:
| Scenario | Actie | Wanneer gebruiken |
|---|---|---|
| Duplicate of bijna-duplicate | 301 redirect naar de canonieke versie | Twee pagina's behandelen hetzelfde onderwerp -- voeg ze samen |
| Verouderde campagnepagina | Geef een 410 (Gone) statuscode terug | Content is permanent irrelevant |
| Dunne content, geen zoekwaarde | Noindex + verwijderen uit sitemap | Pagina's zoals lege tagarchieven of oude paginering |
| Waardevol maar verouderd | Content updaten + interne links toevoegen | Goed onderwerp, maar info moet worden ververst |
| Automatisch gegenereerde rommel | Verwijderen en 404/410 teruggeven | CMS-gegenereerde pagina's die nooit hadden moeten bestaan |
Een korte noot over 410 vs. 404: Google behandelt ze grotendeels vergelijkbaar, maar 410 (Gone) vertelt Google expliciet dat de pagina permanent is verwijderd. Het is een iets sterker signaal om geen crawl budget meer op deze URL te verspillen. Gebruik 410 als je zeker weet dat de pagina nooit meer terugkomt.
Orphan pages vinden en oplossen is reactief werk. Zo voorkom je dat ze überhaupt ontstaan — en ja, elk van deze punten komt rechtstreeks uit wat wij na de migratie hebben geleerd.
Verplichte check op interne links vóór publicatie. Elke nieuwe pagina die je publiceert moet naar minstens 3 bestaande pagina's linken én vanaf minstens 3 bestaande pagina's gelinkt worden. Maak dit een harde eis in je contentworkflow -- geen suggestie. Wij hebben dit na het incident met die 837 pagina's letterlijk als checkbox in ons publicatieproces gezet. Sindsdien is het niet optioneel geweest. Elke nieuwe blogpost die vóór publicatie niet minstens 3 inkomende interne links heeft, gaat terug.
Geautomatiseerde interne linking. Tools zoals SEOJuice's automated linking scannen je content en stellen relevante interne links voor (of voegen ze automatisch toe). Dit pakt het driftprobleem aan -- terwijl je nieuwe content publiceert, krijgen oude pagina's automatisch links vanuit nieuwe content. Ja, ik raad hier ons eigen product aan, en ja, ik ben bevooroordeeld, maar dit is ook echt het probleem dat ons motiveerde om deze feature überhaupt te bouwen. We bouwden het omdat we daar 837 redenen voor hadden.
Maandelijkse crawl-audits. Draai één keer per maand een volledige sitecrawl en check op nieuwe orphan pages. Dit kost 10 minuten en voorkomt dat problemen zich opstapelen. Wij draaien die van ons op de eerste van elke maand. Het aantal nieuwe orphan pages dat we sindsdien vinden is gedaald van tientallen naar enkele cijfers sinds we de publicatiechecklist hebben ingevoerd.
Redirect mapping bij elk redesign. Exporteer vóór livegang van een nieuw design je huidige URL-structuur en controleer of elke pagina bereikbaar is in de nieuwe navigatie. Alleen dit al voorkomt de #1 oorzaak van orphan pages. Ik wou dat iemand me dit vóór onze migratie wat harder had ingeprent. Ik wist het rationeel wel. Ik had het alleen niet grondig genoeg gedaan. We mapten URL's, maar niet de interne links. Maak dat onderscheid niet opnieuw.
Ruim je CMS op. Zet automatische generatie uit van pagina's die je niet nodig hebt -- tagarchieven, datumarchieven, auteurspagina's (als je één auteur hebt). Elke automatisch gegenereerde pagina die niet in je navigatie zit, is een potentiële orphan page. De 412 tag- en datumarchief-orphans die wij vonden waren allemaal pagina's die WordPress automatisch had aangemaakt en waar vervolgens niemand ooit naar linkte of ze bezocht.
Dit is een grove formule die ik gebruik om de verkeersimpact van orphan pages te schatten:
| Metric | Hoe je eraan komt | Voorbeeld |
|---|---|---|
| Totaal aantal orphan pages | Crawl vs. sitemapvergelijking | 150 pagina's |
| % orphan pages met zoekvraag | Check GSC-impressies voor orphan URL's | 40% (60 pagina's) |
| Gemiddelde impressies per orphan page | GSC-data voor die 60 pagina's | 200 impressies/maand |
| Verwachte CTR als ze goed gelinkt zijn | De gemiddelde CTR van je site voor vergelijkbare pagina's | 3.5% |
| Verloren klikken per maand | 60 x 200 x 0.035 | 420 klikken/maand |
420 klikken per maand van pagina's die al gewoon op je site bestaan. Geen nieuwe content nodig. Geen link building. Alleen wat interne links toevoegen. Dat is het soort ROI waardoor SEO nog steeds het beste marketingkanaal is dat er bestaat.
Ter context: onze data over 200+ sites laat zien dat de gemiddelde website 8-15% van zijn pagina's als orphan page heeft. Voor sites die langer dan een jaar niet zijn geaudit, springt dat getal naar 20-30%. Hoe groter de site, hoe erger het wordt. En heb je recent een migratie gedaan zonder audit op interne links? Check je cijfers. Ik zou zonder aarzelen op boven de 20% inzetten.
"Pages that are not linked in the site structure consume 26% of Google's crawl budget. For local businesses with fewer than 500 pages, orphan pages waste crawl budget while generating only 5% of organic traffic despite representing up to 70% of crawled pages."
Die cijfers komen van enterprise-sites met duizenden pagina's, maar het patroon zie je op elke schaal terug. Orphan pages zijn een universeel probleem met een vrij universele oplossing: vind ze en link ernaar, of verwijder ze.
Technisch gezien wel. Als een orphan page in je sitemap staat, kan Google hem uiteindelijk vinden. Als de pagina externe backlinks heeft, kan Google hem ook zo ontdekken. Maar "uiteindelijk" kan maanden betekenen, en zelfs als de pagina geïndexeerd raakt, ontvangt hij zonder interne links nul authority -- dus de kans dat hij rankt op iets competitiefs is klein. Een pagina in je sitemap opnemen is geen vervanging voor goede interne linking.
Technisch gezien één. Maar één link vanuit een footer heeft niet hetzelfde gewicht als drie contextuele links vanuit relevante contentpagina's. Ik raad minimaal 3 interne links aan vanaf inhoudelijk verwante pagina's. Belangrijke pagina's zouden er aanzienlijk meer moeten hebben -- je belangrijkste content zou 10+ interne links moeten hebben die ernaartoe wijzen.
Niet per se. Als je tagpagina's gelinkt zijn vanuit je navigatie, sidebar of footer, dan zijn het geen orphan pages. Het probleem ontstaat wanneer je tags aanmaakt voor elk denkbaar keyword (een klassieke WordPress-gewoonte) en de meeste van die tagpagina's nooit in een navigatie verschijnen. Een tagpagina met 2 posts en geen inkomende links is puur dood gewicht. Wij hadden er honderden van.
Als de pagina's echt orphaned zijn (geen verkeer, geen backlinks, geen interne links), dan doet verwijderen niets kapot. Je kunt niet verliezen wat je niet hebt. Zorg er alleen voor dat je een correcte 404- of 410-statuscode teruggeeft, zodat Google stopt met proberen ze te crawlen. Redirect orphan pages niet naar niet-gerelateerde content -- dat is een soft 404 en Google straft dat af.
Maandelijks voor sites die vaak publiceren (meer dan 10 pagina's per maand). Per kwartaal voor kleinere sites. Na elk redesign of elke migratie moet je binnen de eerste week een audit doen -- dan is de kans het grootst dat orphan pages in bulk ontstaan. Geloof me vooral op het migratiedeel. Ik heb dat geleerd met 837 redenen.
SEOJuice Automated Internal Linking -- Scant je site continu en voegt automatisch interne links toe aan orphan pages die het waard zijn om te behouden. De beste oplossing is meestal degene waar je zelf niet meer over hoeft na te denken.
Content Silos for SEO Guide -- Orphan pages zijn vaak een symptoom van een slechte contentarchitectuur. Deze gids laat zien hoe je een silostructuur bouwt waardoor elke pagina verbonden blijft.
Internal Link Finder Tool -- Gratis tool die je sitestructuur analyseert en interne linkkansen identificeert die je nu mist.
Elke orphan page is een gemiste kans. De content is al geschreven. De pagina bestaat al. Hij heeft alleen een link nodig. Dat is de SEO-oplossing met de minste inspanning en de hoogste opbrengst die er is -- en de meeste sites hebben er op dit moment tientallen van liggen.
no credit card required
No related articles found.