Search Engine Optimization Intermediate

Waisen-Seite

Waisen-Seiten unterbrechen den internen PageRank-Flow, schwächen die Auffindbarkeit und verbergen wertvolle URLs häufig sowohl für Crawler als auch für Nutzer.

Updated Apr 04, 2026

Quick Definition

Eine Waisen-Seite ist eine aktive URL ohne interne Links, die aus der crawlbaren Seitenarchitektur der Website auf sie verweisen. Das ist relevant, weil in der Regel Rankings, Indexierung und Link-Eigenkapital darunter leiden, wenn Google die Seite nicht zuverlässig über interne Links entdecken oder erneut bewerten kann.

Eine verwaiste Seite ist eine URL, die auf deiner Website existiert, aber keine internen Links von crawlbaren Seiten hat. Eine einfache Definition. Ein großes operatives Problem. Wenn eine Seite nur in einer XML-Sitemap, in einer Liste von PPC-Landingpages oder in einer alten CMS-Datenbanktabelle vorkommt, kann Google sie möglicherweise trotzdem finden, ist aber von deinem internen Verlinkungssystem abgekoppelt.

Das ist relevant, weil interne Links drei Aufgaben erfüllen: Auffindbarkeit (Discovery), Kontext und die Verteilung von PageRank. Nimm alle drei weg, wird die Seite anfällig. Sie kann noch Monate indexiert bleiben und dann langsam verschwinden. Oder sie erzielt nie Ergebnisse, obwohl der Content und Backlinks anständig sind.

So identifizierst du verwaiste Seiten richtig

Ziehe dich nicht auf eine einzige Datenquelle zurück. Ein Crawler allein kann keine echten Verwaisten finden, weil sie per Definition nicht intern verlinkt sind. Der Standard-Workflow ist, einen Crawl aus Screaming Frog oder Sitebulb mit URL-Quellen wie XML-Sitemaps, Google Analytics 4, Server-Logs und Google Search Console (GSC) zu kombinieren.

  • Crawle die Website und exportiere alle indexierbaren URLs mit Status 200 inklusive Inlink-Anzahlen.
  • Importiere Sitemap-URLs, GA4-Landingpages, GSC-Seiten und URLs aus Logdateien.
  • Abgleichen der Datensätze: Jede indexierbare URL mit 0 internen Inlinks ist ein wahrscheinlicher Kandidat für eine verwaiste Seite.

Screaming Frog löst das gut mit XML-Sitemap-, Analytics- und Search-Console-Integrationen. Bei großen Websites ist die Log-Analyse wichtiger als viele zugeben. Wenn Googlebot auf eine URL trifft, die dein Crawl nicht erreichen kann, hast du ein strukturelles Problem – nicht nur ein Reporting-Problem.

Warum verwaiste Seiten SEO schaden

Erstens verschwenden sie Wert. Eine Seite mit 20 verweisenden Domains in Ahrefs oder einem URL-Rating von 25+ kann trotzdem unterperformen, wenn keine internen Links diese Autorität in den Rest der Website weiterleiten.

Zweitens verfälschen sie Entscheidungen zur Indexierung. Google hat das seit Jahren klar gesagt: Interne Verlinkung hilft dabei, die Bedeutung einzuordnen. John Mueller von Google hat intern wiederholt betont, dass interne Verlinkung eines der stärksten Signale ist, um die Struktur und Priorität einer Website zu verstehen. Das gilt weiterhin. Eine Seite ohne interne Links sendet stattdessen das Gegenteil: geringe Bedeutung – vielleicht unbeabsichtigt, vielleicht nicht wert, häufig erneut gecrawlt zu werden.

Drittens zerstören sie Nutzerpfade. Das ist nicht nur ein Bot-Problem. Wenn Nutzer eine Seite nicht über Navigation, Hubs, relevante Artikel oder die Logik von Kategorien erreichen können, leistet sie kaum kommerzielle Arbeit.

Was du mit ihnen tun solltest

Nicht jede verwaiste Seite sollte gerettet werden. Einige sollten noindexed, umgeleitet oder gelöscht werden. Sei selektiv.

  1. Behalte und verlinke Seiten mit organischem Potenzial, Conversions, Backlinks oder strategischer Relevanz.
  2. Leite veraltete Duplikate oder abgelaufene Kampagnen-URLs weiter.
  3. Noindex für Utility-Seiten, die zwar existieren sollen, aber keine Sichtbarkeit in der Suche benötigen.

Wenn du eine Seite beibehältst, füge 2–5 relevante interne Links von Seiten hinzu, die bereits gecrawlt werden und in GSC Impressionen erzielen. Nutze kontextbezogene Anker, nicht Sitewide-„Junk“. Prüfe interne Linkmöglichkeiten in Ahrefs oder Semrush und validiere anschließend die Crawl-Tiefe in Screaming Frog.

Eine Einschränkung: Eine Seite kann technisch „verwaist“ sein und trotzdem ranken, wenn sie starke Backlinks hat oder in der Sitemap liegt. Das kommt vor. Aber es ist instabile SEO. Du bittest Google um zusätzliche Arbeit und gibst ihm dabei schwächere strukturelle Signale als nötig.

Frequently Asked Questions

Ist eine Seite weiterhin verwaist (Orphan Page), wenn sie in der XML-Sitemap auftaucht?
Ja. Eine Sitemap ist ein Auffindbarkeitshinweis, kein interner Link. Wenn keine crawlbaren Seiten-Links zur URL vorhanden sind, ist sie aus Sicht der internen Seitenarchitektur dennoch „verwaist“.
Können verwaiste Seiten weiterhin indexiert werden und in den Suchergebnissen ranken?
Ja, insbesondere wenn sie externe Backlinks, aktuellen Traffic oder eine Aufnahme in der Sitemap haben. Die Leistung ist jedoch in der Regel weniger stabil, weil der Seite internes PageRank und kontextuelle Signale fehlen.
Welche Tools eignen sich am besten, um verwaiste Seiten zu finden?
Nutze zuerst Screaming Frog, und ergänze dann mit GSC, GA4, XML-Sitemaps sowie Server-Logs. Ahrefs und Semrush helfen dabei, zu priorisieren, welche verwaisten Seiten sich aufgrund von Backlinks, Traffic und Keyword-Wert am ehesten lohnen, zu beheben.
Wie viele interne Links sollte eine verwaiste Seite erhalten?
In der Regel reichen 2–5 relevante Links aus, um die Seite wieder zu integrieren. Mehr ist nur dann nötig, wenn die Seite strategisch besonders wichtig ist und in großen Hubs, Kategorie- oder Navigationsseiten gehört.
Soll jede verwaiste Seite behoben werden?
Nein. Einige sind wertarme Restbestände: abgelaufene Kampagnen, doppelte Filter, dünne Support-Seiten oder Fehler in der Staging-Umgebung. Behebe die Varianten mit Umsatz, Links, Rankings oder klarem thematischem Mehrwert; den Rest außer Betrieb nehmen.

Self-Check

Welche verwaisten Seiten haben Backlinks, Conversions oder GSC-Eindrücke, die eine Wiedereingliederung rechtfertigen?

Sind unsere verwaisten URLs echte Business-Assets oder nur CMS-Rückstände, die umgeleitet oder auf „noindex“ gesetzt werden sollten?

Erkennen wir verwaiste Seiten allein anhand von Crawling-Daten, oder führen wir Protokolle, Sitemaps und die Google Search Console ordnungsgemäß zusammen?

Nachdem wir verwaiste Seiten wieder intern verlinkt haben: Messen wir dann weiterhin Crawl-Tiefe, Impressionen und Assisted Conversions?

Common Mistakes

❌ Nur die Crawling-Daten von Screaming Frog verwenden und dabei davon ausgehen, dass Suchtreffer verwaiste Seiten erfassen

❌ Hinzugefügte verwaiste Seiten zur Sitemap und das Problem als gelöst behandeln

❌ Jedes verwaiste URL stattdessen neu verlinken, anstatt Seiten mit geringem Wert oder veralteten Inhalten zu entfernen

❌ Verwendung generischer standortweiter Links statt kontextbezogener Links von relevanten, bereits leistungsstarken Seiten

All Keywords

Waisen-Page verwaiste Seiten (SEO) interne Verlinkung Crawlability technisches SEO Google Search Console „Screaming Frog“-Waisen-Seiten Ahrefs interne Verlinkungen Indexierungsprobleme Interner PageRank Seitenarchitektur verwaiste URLs finden

Ready to Implement Waisen-Seite?

Get expert SEO insights and automated optimizations with our platform.

Get Started Free