Adresy URL oparte na hashu mogą zakłócać indeksowanie, marnować budżet i wysiłek crawlowania oraz ukrywać strony generujące przychody, chyba że treść jest udostępniona na rzeczywistych, możliwych do indeksowania adresach URL.
Indeksowanie fragmentów URL to błędne przekonanie, że treść znajdująca się po znaku „#” w adresie URL może uzyskać własną pozycję jako osobna strona. Ma to znaczenie, ponieważ Google zazwyczaj pomija fragmenty w indeksowaniu, więc wszelkie kluczowe treści, mechanizmy routingu lub filtry umieszczone w tym miejscu zwykle są niewidoczne w wynikach wyszukiwania.
Indeksowanie fragmentów URL to w większości problem z przeszłości, ale wciąż pojawia się w audytach SPA co miesiąc. Jeśli ważna treść wyświetla się tylko pod /page#state lub /page#!/view, Google zwykle traktuje to jako ten sam URL co /page, a nie jako osobny dokument.
Wpływ biznesowy jest prosty. Ukryte URL-e nie pozycjonują się. Stany produktu, artykuły pomocy, filtrowane widoki kategorii i trasy aplikacji mogą zniknąć z wyników wyszukiwania nawet wtedy, gdy użytkownicy mają do nich dostęp w przeglądarce bez problemów.
Przy standardowym indeksowaniu wyszukiwarki usuwają fragment. Google wycofało starą metodę indeksowania AJAX-a lata temu, co zakończyło działanie dawnego obejścia opartego na #!. W praktyce Googlebot żąda bazowego URL, a nie każdej odmiany hasha nałożonej na niego.
To oznacza, że example.com/docs#setup nie jest drugą stroną. Zwykle jest to po prostu example.com/docs z przejściem/skokiem w obrębie tej strony. Jeśli router w React lub Vue nadal opiera się na stanach opartych na hashach, aby treści były unikalne, masz problem z indeksacją, a nie drobną techniczną osobliwość.
Uczciwe zastrzeżenie: fragmenty sprawdzają się do kotwic, zakładek i linków prowadzących do określonych miejsc na stronie, która sama w sobie jest już indeksowalna. Kłopot zaczyna się wtedy, gdy zespoły oczekują, że fragmenty utworzą samodzielne wpisy w wyszukiwarce.
W Screaming Frog zwykle widać to jako jeden URL HTML z wieloma zmianami stanu JavaScript, ale bez wyraźnie odrębnych ścieżek możliwych do crawlowania. W Google Search Console obserwujesz wyświetlenia skoncentrowane na bazowym URL, podczas gdy rzekome widoki potomne nie dostają nic. Ahrefs i Semrush następnie raportują mniej URL-i z pozycjami, niż zakłada zespół produktowy.
Jeśli to migracja, odwzoruj stare kierowania użytkowników opartych na fragmentach na odpowiednie URL-e możliwe do crawlowania, o ile to możliwe. W ścisłym sensie nie możesz zrobić przekierowania 301 dla fragmentu, ponieważ fragment jest obsługiwany po stronie klienta i nie jest wysyłany w żądaniu HTTP. To zastrzeżenie wiele słowników pomija. Potrzebujesz obsługi JavaScript, aktualizacji linków wewnętrznych i odzyskania linków zewnętrznych w Ahrefs lub Moz, a nie „zgrabnej” reguły przekierowania po stronie serwera.
Podsumowanie: fragmenty służą do pozycjonowania na stronie, a nie do indeksowalnych dokumentów. Jeśli dana strona ma znaczenie dla ruchu organicznego, daj jej prawdziwy URL.
Jak pozycjonować filmy w YouTube i Google, poprawiając dopasowanie tematu, …
Wykryj kanibalizację na poziomie szablonów, usprawnij podejmowanie decyzji o konsolidacji …
Gdy szablony stron skalowanych przeważają nad stronami, które są faktycznie …
Jak drobne zmiany w szablonach mogą powodować ogólnoserwisowe regresje SEO …
Techniczna metoda wykrywania duplikatów, która oznacza szablony unikalnymi znacznikami, ułatwiając …
Powstrzymaj dryf słów kluczowych w szablonach, zachowaj siedmiocyfrowy ruch i …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free