Join our community of websites already using SEOJuice to automate the boring SEO work.
See what our customers say and learn about sustainable SEO that drives long-term growth.
Explore the blog →TL;DR: Osierocone strony w SEO nie zawsze są warte ratowania — świadczą o braku systemu decyzyjnego, który określa, co zasługuje na linki, co na indeksację, a co na usunięcie.
Większość porad urywa się zbyt wcześnie. Uczą, jak znaleźć adresy URL bez wewnętrznych linków, a potem każą dodać linki. Brzmi schludnie. Tworzy też nowy problem.
Prawdziwym kłopotem jest „decyzyjny dług”. Stara strona z kampanii, zmigrowany wpis blogowy czy ubogi adres programatyczny wiszą w indeksie Google bez powiązania z resztą serwisu. Nikt nie potrafi powiedzieć, czy powinny się pozycjonować, przekierowywać, pozostać prywatne czy zniknąć.
W mindnow widziałem osierocone strony tworzone przez redesigny, arkusze migracyjne, strony kampanii i nawyki CMS-owe, których nikt nie kwestionował przez dwa lata. Na vadimkravcenko.com najstraszniejsza była nie jedna strona bez linków, lecz długa lista stron z jednym słabym odnośnikiem z zapomnianego archiwum. Ten sam wzorzec sprawia, że seojuice.io traktuje sprzątanie sierot jak triaż linkowania wewnętrznego, a nie czyszczenie błędów crawl-era.
Normalne działania biznesowe tworzą ten bałagan. Marketing publikuje landing page. Produkt zmienia adresy. Aktualizacja treści usuwa stare linki. Programista ujawnia archiwum tagów, bo w CMS-ie było to łatwiejsze niż jego ukrycie. Trzy miesiące później audyt krzyczy „osierocona strona”, a ktoś chce dodać link w stopce do wszystkiego.
Tu właśnie cierpią pozycje. Możesz uratować właściwy adres i wzmocnić klaster tematyczny. Możesz też podłączyć tysiące słabych stron i głośno powiedzieć Google, że są ważne. Różnicę robi osąd.
Osierocona strona to podstrona Twojego serwisu, do której nie prowadzi żaden wewnętrzny link z innych crawl-owalnych stron tego samego serwisu. Po ludzku: użytkownik i robot nie dotrą tam, idąc normalnymi ścieżkami.
Definicja brzmi prosto, dopóki nie spojrzysz z perspektywy Google. John Mueller, Search Advocate w Google, podał najczystszą wersję problemu odkrywania:
„Jeśli nie ma linków, nie znajdziemy URL-a, niezależnie od blokady robots.”
Mueller mówił o odkrywaniu. Nie podawał pełnej reguły rankingowej. Strona może trafić do systemów Google przez mapę witryny, Inspekcję URL w Search Console, backlink, przekierowanie, sygnały z przeglądarki lub wcześniejsze odkrycie. Dlatego osierocone strony potrafią być zaindeksowane, choć serwis już do nich nie linkuje.
To rozróżnienie jest kluczowe, bo odkrycie i ważność to osobne sygnały. Mapa witryny mówi: „ten URL istnieje”. Linki wewnętrzne mówią mocniej: „ten URL należy tu, a powiązane strony wyjaśniają dlaczego”.
| Termin | Znaczenie | Dlaczego ma znaczenie |
|---|---|---|
| Osierocona strona | Nie prowadzą do niej linki wewnętrzne | Trudno ją odkryć przez serwis |
| Strona ślepa uliczka | Brak użytecznych linków wychodzących | Robot lub użytkownik trafia i stoi pod ścianą |
| Strona noindex | Prosi wyszukiwarki o brak indeksacji | Status indeksacji ≠ status linków |
| Słabo linkowana strona | Jeden lub bardzo niewiele linków wewnętrznych | Jedna zmiana szablonu może zrobić z niej sierotę |
Słabo linkowane strony wymagają uwagi. Adres z jednym linkiem z starego archiwum jest technicznie połączony, ale ledwo. Jeśli szablon archiwum się zmieni, strona znika z trasy crawl-a z dnia na dzień. Latami je ignorowałem, bo „mają linki” (mój błąd).
Lepsza definicja jest operacyjna: osierocona strona to URL bez crawl-owalnych wewnętrznych linków przychodzących (takich, które robot może śledzić z aktywnych stron). Strona „przy-sierocona” ma tak małe wsparcie, że jedna edycja sprowadzi ją do tego samego losu.
Zwykle wynikają z dryfu procesów, nie z tajemnic. Serwis nie psuje się nagle. Powoli przestaje mówić prawdę o tym, co ważne.
Migracje są oczywistym źródłem. Zespół utrzymuje stare adresy, zmienia szablony, przesuwa nawigację i zapomina sprawdzić, czy każda cenna stara strona wciąż ma ścieżkę crawl-a. Mapa przekierowań wygląda na kompletną. Nowy design – schludnie. A stary artykuł, który wisiał pod hubem, traci rodzica, okruszki i link kontekstowy.
Redesigny nawigacji robią to samo. Kategorie znikają, bo menu jest „zbyt zajęte”. Archiwa bloga się chowają. Strony autorów, tagi i filtry zasobów zmieniają zachowanie. Każda decyzja jest z osobna sensowna, ale może usunąć źródło linku.
Strony kampanii są inne. Wiele nigdy nie miało być przeglądane. Strony pod PPC, e-maile, afiliacje czy webinary często żyją poza główną architekturą celowo. Kłopoty zaczynają się, gdy tymczasowe strony zostają, zwłaszcza jeśli były indeksowalne i złapały backlinki.
Strony produktowe i programatyczne dokładają skalę. Produkty wyprzedane, wycofane SKU, duplikaty lokalizacji czy szablonowe „najlepsze X dla Y w Z” rosną szybciej, niż ktokolwiek je przegląda. Na dużych serwisach pojawia się dylemat: dodanie linków do każdej sieroty może uczynić słabą treść bardziej widoczną.
Nawyki CMS są cichsze. Publiczne szkice, testowe URL-e, archiwa autorów, tagów czy strony załączników istnieją, bo domyślne ustawienie mówiło „tak”. Odświeżenia bloga tworzą inną wersję problemu: autor aktualizuje hub, usuwa dziesięć starych linków i przypadkiem odcina starsze wpisy, które wciąż zbierają wyświetlenia.
W mindnow crawl przed startem zwykle wyglądał czysto. Trzy miesiące później marketing dodał strony kampanii, content usunął stare linki, a produkt zmienił reguły URL. Raport sierot był tylko rachunkiem.
Szkodzą przez kilka nudnych mechanizmów. Nuda jest okej — to tam wycieka kasa.
Teraz zepsujmy prostotę. Niektóre sieroty są zamierzone. Landing pod płatny ruch, strona „dziękujemy za zakup”, URL prawny, oferta handlowa czy tymczasowa strona partnera mogą żyć poza nawigacją. Problem to przypadkowa izolacja stron, które powinny się pozycjonować, konsolidować lub znikać.
Dane to potwierdzają. Analiza Patricka Stoxa na 1 002 165 domenach (Ahrefs) pokazała, że 66,2% serwisów ma strony z tylko jednym linkiem wewnętrznym dofollow. To nie prawdziwe sieroty. I lepiej: te strony są o jedno usunięcie linku od sieroty.
Badanie Cyrusa Sheparda (Zyppy) przeanalizowało 23 mln linków wewnętrznych na 1 800 serwisach i stwierdziło, że 53% URL-i ma trzy lub mniej linków prowadzących. Prawdziwe sieroty wykluczono, bo nie mają danych linkowych. Opisuje więc ogon słabo linkowany, nie zero-linkowy.
Nie nadinterpretuj liczb (metodologia u Stoxa). Nie dowodzą reguły „trzy linki = ranking”. Pokazują, że wiele serwisów ma problem z dystrybucją. Zbyt dużo URL-i siedzi na obrzeżach bez wsparcia.
Dlatego strategia sierot powinna obejmować słabo linkowane strony. Raport zerolinkowy to SOR. Jedno- i dwu-linkowe to wczesny alarm.
Standardowy crawl nie znajdzie wszystkich sierot. W tym pułapka. Jeśli robot śledzi tylko linki wewnętrzne, ma tę samą ślepotę co Googlebot. Znajduje to, co linkujesz.
Narzędzia jak Screaming Frog, Sitebulb, Ahrefs Site Audit czy Semrush Site Audit to wciąż dobry start. Pokażą aktualną architekturę: znalezione strony, linki wewnętrzne, kody statusu, kanoniki, indeksowalność, głębokość i liczbę linków przychodzących.
Robot zgłosi sierotę tylko, gdy URL trafi do projektu z innego źródła. Zwykle łączysz mapy, analitykę, Search Console, backlinki lub listę manualną. Bez tego crawler świetnie mapuje to, co odsłaniasz – i nie widzi tego, co zapomniałeś.
Kandydaci na sieroty wynikają z porównania wielu źródeł. Jeden eksport to za mało.
| Źródło | Co wyłapuje |
|---|---|
| Mapy XML | Adresy, które serwis zgłasza do odkrycia |
| Google Search Console | Adresy znane Google |
| GA4 / analityka | Adresy odwiedzane przez użytkowników |
| Logi serwera | Adresy żądane przez boty i ludzi |
| Eksport CMS | Adresy opublikowane w systemie |
| Narzędzia backlinków | Adresy z linkami zewnętrznymi, ale bez wewnętrznych |
| Stare mapy migracji | Adresy ocalałe po redesignie |
W seojuice.io to część najważniejsza, bo chroni audyt przed teatrem. Jeśli Google, użytkownicy, backlinki lub CMS znają URL, zasługuje on na decyzję.
Prosta formuła:
Kandydaci na sieroty = wszystkie znane indeksowalne URL-e minus URL-e znalezione przez internal crawl.
Potem oczyść listę. Usuń przekierowane, kanonizowane, blokowane, noindex, śmieci parametrów czy celowo prywatne. Zostaw kolumnę „wymaga decyzji”, bo surowy eksport sierot to nie lista napraw.
Pogrupuj pozostałe URL-e według typu: wpisy blogowe, produkty, kategorie, lokalizacje, kampanie, szablony, tagi, testy, stare migracje. Wzorce biją pojedyncze tickety. Tysiąc sierot z jednego szablonu zwykle wymaga jednej decyzji szablonowej.
Patrick Stox trafnie podsumowuje główny błąd:
„Marketerzy często popełniają błąd, dodając linki wewnętrzne do wszystkich sierot hurtowo. To, że szybka poprawka działa na wszystkich stronach, nie znaczy, że powinna być zastosowana.”
To cały diagram decyzji. Pytanie nie brzmi „jak dodać linki?”, lecz „co zrobić z tym URL-em?”. Są cztery odpowiedzi.
| Decyzja | Kiedy stosować | Akcja SEO |
|---|---|---|
| Podlinkuj | Strona jest użyteczna, indeksowalna, aktualna i wspiera ważny temat | Dodaj linki kontekstowe z pokrewnych stron, hubów, breadcrumbs lub nawigacji |
| Przekieruj | Strona ma backlinki, ruch lub historię, ale istnieje lepsza strona | 301 do najbliższego dopasowania |
| Usuń / noindex | Strona jest uboga, wygasła, zduplikowana lub bezużyteczna dla wyszukiwania | 410/404 lub noindex, jeśli użytkownicy wciąż jej potrzebują |
| Zostaw | Strona celowo jest izolowana poza strategią organiczną | Pozostaw poza architekturą i udokumentuj powód |
Podlinkuj, gdy strona zasługuje na miejsce. Przydatny stary poradnik, zaniedbana strona usługi czy lokalizacja z realnym popytem mogą potrzebować linków z hubu, powiązanych artykułów, breadcrumbs lub stron komercyjnych. Ratunek ma łączyć w ścieżkę tematyczną, nie chować w „archiwum sierot”.
Przekieruj, gdy URL ma historię, ale nie powinien już istnieć samodzielnie. Dawne strony kampanii z backlinkami, stare karty produktowe zastąpione nowszym modelem czy zmigrowane wpisy z lepszym odpowiednikiem – pasują tu. Dopasuj intencję. Nie zrzucaj wszystkiego na homepage.
Usuń lub noindex, gdy URL obniża średnią jakości tego, co oferujesz w wyszukiwarce. Ramy „quality indexation” Glenna Gabe’a są tu pomocne:
„Jako quality indexation nazywam upewnienie się, że treści najwyższej jakości są indeksowane, a cienkie lub słabe pozostają poza indeksem.”
Najważniejsze przy dużych i programatycznych serwisach. Jeśli tysiące słabych stron miastowych są sierotami, najgorsza poprawka to dodać tysiące słabych linków. Ułatwiasz znalezienie słabej treści i wydajesz na nią equity. Lepsze może być przycięcie, noindex, konsolidacja lub odbudowa tylko tych z realną wartością.
Zostaw, gdy izolacja jest celowa. Strona podziękowania po zakupie, landing pod płatny ruch, nota prawna czy prywatna oferta nie potrzebują miejsca w klastrze. Potrzebują dokumentacji, by kolejny audyt ich nie „naprawił”.
Krótki przykład: „najlepszy CRM dla dentystów w Boise” z unikalnymi przykładami, popytem i hubem software może zasługiwać na linki. Duplikat strony miejskiej z tego samego szablonu prawdopodobnie na usunięcie lub noindex. Url kampanii z mocnymi backlinkami – przekierować. Strona thank-you – trzymać poza strukturą.
Gdy strona przejdzie triaż, kluczowe jest źródło linku. Link w stopce z każdej strony rzadko jest najlepszym początkiem. Link kontekstowy z powiązanej, indeksowanej strony daje robotom i ludziom lepszy powód, by się przejmować.
Zacznij od stron z crawl-em, wyświetleniami lub ruchem. Jeśli stary poradnik o audytach technicznych ma wesprzeć ratowaną stronę o głębokości crawl-a, podlinkuj z poradnika opisowym anchor-em. „Dowiedz się więcej” jest słabe. „Jak głębokość crawl-a wpływa na indeksację” mówi Google i czytelnikowi, co dalej.
Dodaj ratowane strony do właściwych hubów, kategorii czy stron zasobów. Jeśli strona należy do hierarchii, pomogą breadcrumbs. Jeśli wspiera stronę komercyjną, linkuj z niej do zasobu edukacyjnego i, gdzie ma to sens, wróć z zasobu do strony komercyjnej. Linkowanie wewnętrzne działa najlepiej jako ścieżka, nie jednokierunkowa łatka.
Tak myślę o strategii linkowania wewnętrznego w seojuice.io. Celem nie jest posypać linkami wszystko. Celem jest znaleźć strony warte miejsca w ścieżce tematycznej i połączyć je z już kontekstowymi i crawlowanymi.
Unikaj fałszywego sprzątania: stworzenia jednego archiwum „orphan pages” i podlinkowania tam wszystkiego. Audyt będzie szczęśliwy, ale sens rzadko wzrośnie. Jeśli jedyne miejsce dla strony to szuflada z gratami, potrzebna jest trudniejsza decyzja.
Prewencja mniej ekscytuje niż sprint czyszczenia. Ale kumuluje się lepiej. Serwis z systemem publikacji tworzy mniej sierot niż serwis z heroicznymi kwartalnymi audytami.
Dodaj wymóg linku wewnętrznego do publikacji. Każdy nowy artykuł powinien mieć stronę rodzica, co najmniej jeden link przychodzący i uzasadnienie w klastrze tematycznym. Można to wpisać w brief. Nie licz na pamięć po publikacji.
Oznaczaj strony kampanii przed startem. Organic, tylko-paid, tymczasowe, prywatne i partnerskie potrzebują różnych zasad. Jeśli strona jest tylko-paid, zdecyduj o noindex. Jeśli tymczasowa, ustaw datę wygaśnięcia. Jeśli organic, podłącz ją do serwisu.
QA migracji musi mieć stare URL-e, nowe ścieżki crawl-a i przekierowania w jednym miejscu. Migracja, która zachowa statusy, ale zerwie ścieżki wewnętrzne, to wciąż porażka. Porównaj starą listę URL z nowym crawlem, nie tylko z mapą 301.
Strony produktowe, kategoriowe, międzynarodowe i lokalizacyjne potrzebują zasad cyklu życia. Wyprzedane, wycofane, scalone, zastąpione, przetłumaczone i rozszerzone geograficznie powinny mieć domyślne decyzje. Inaczej każda zmiana stanów magazynowych czy lokalizacji to przyszła partia sierot.
Na koniec obserwuj słabo linkowane strony. Szersze badanie techniczne Ahrefs wykazało, że 80,4% serwisów nie ma alt-ów, 72,9% meta opisów, a 72,3% ma wolne strony. Strony przy-sierocone należą do tej samej kategorii: powszechny dług techniczny wymagający priorytetu, nie paniki.
Cel to serwis, w którym ważne strony nie wypadają z architektury przypadkiem (dla większości zespołów wystarczą kwartalne kontrole).
Jeśli lista jest ogromna, najpierw zrób próbkę. Tysiąc sierot z jednego szablonu to zwykle jedna decyzja szablonowa, nie tysiąc poprawek. Praca na poziomie strony zaczyna się po zrozumieniu wzorca.
Tak. Google może znać stronę z mapy, linków zewnętrznych, zgłoszenia w Search Console, przekierowania lub wcześniejszego odkrycia. Ale indeksacja ≠ dobre połączenie. Sierota może istnieć w systemach Google, nie mając kontekstu wewnętrznego.
Nie. Niektóre są zamierzone. Ryzykowne są ważne strony bez wsparcia lub słabe strony, które pozostają zaindeksowane bez powodu. Naprawa zależy od roli strony.
Nie. Sitemap pomaga w odkryciu. Nie zastępuje linków wewnętrznych jako źródła kontekstu, wagi i dostępu użytkownika. Jeśli strona ma znaczenie dla SEO, zwykle potrzebuje realnego miejsca w architekturze.
Nie. Stosuj model czterech decyzji. Linkuj użyteczne, przekieruj zastąpione, usuń lub noindex słabe, zostaw celowo izolowane. Hurtowe linkowanie zamienia sprzątanie w poparcie.
Osierocona nie ma linków przychodzących. Ślepa uliczka nie ma linków wychodzących. Jedna jest trudna do znalezienia; druga – do kontynuacji. Obie psują ścieżki crawl-a i podróże użytkownika.
Jeśli audyt kończy się „dodaj linki do wszystkich”, znalazłeś tylko objaw. Zacznij od prawdziwego triażu linkowania wewnętrznego: odkryj URL-e, sklasyfikuj je, zdecyduj, czy zasługują na linki, przekierowania, przycięcie czy dokumentację, a potem ratuj tylko te strony, które na to zasługują. Jeśli potrzebujesz pomocy w przekuciu tego w proces, seojuice.io może zmapować ścieżki wewnętrzne i pokazać, gdzie serwis po cichu gubi strony.
no credit card required
No related articles found.