Rozmowy ChatGPT są indeksowane przez Google

Vadim Kravcenko
Vadim Kravcenko
· 5 min read

TL;DR: Rozmowy ChatGPT są indeksowane przez Google — a przynajmniej przez krótką chwilę były. Publicznie udostępnione czaty pojawiły się w wynikach wyszukiwania, a potem zniknęły w mniej niż 24 godziny. Poniżej pokazuję, co dokładnie się wydarzyło, co to oznacza dla SEO i co widzieliśmy w naszych własnych danych monitoringowych, kiedy cała sytuacja rozgrywała się na żywo.

Mniej niż 24 godziny temu bardziej spostrzegawczy specjaliści SEO zaczęli podawać dalej dość sprytne odkrycie: publiczne rozmowy ChatGPT pod adresem /share były w pełni indeksowalne, a część z nich już pojawiała się w top 20 Google na długie, precyzyjne zapytania. To wyglądało jak cyfrowa alchemia — natychmiastowa treść, która miała cechy autorytatywnego contentu, a której nie musiałeś nawet sam pisać. Zrzuty ekranu trafiły na Twittera/X, zaczęły pojawiać się wpisy na blogach, a kilku oportunistów zdążyło nawet automatycznie pobierać treść tych rozmów do szybkiego stawiania stron afiliacyjnych.

Potem spadł młot.

Następnego ranka każdy wynik /share zniknął z indeksu Google. Jeśli dziś wpiszesz site:chatgpt.com/share, zobaczysz zero wyników. OpenAI po cichu wdrożyło trzy zmiany jedna po drugiej — <meta name="robots" content="noindex">, tag canonical dla całego serwisu wskazujący stronę główną i najpewniej wysłało zbiorcze zgłoszenie przez Narzędzie do usuwania adresów URL Google. Adresy „ChatGPT share URLs” stały się żywym case study błyskawicznego usuwania stron z indeksu Google.

Rozmowy ChatGPT są indeksowane przez Google: co zobaczyliśmy w naszych własnych danych

Monitorowaliśmy to w czasie rzeczywistym w SEOJuice. Gdy pierwsze raporty pojawiły się na Twitterze, szybko sprawdziłem strony naszych klientów, żeby zobaczyć, czy jakieś adresy /share pojawiają się jako konkurencyjne strony. Oto co znaleźliśmy:

Analysis of how ChatGPT affects traditional SEO and search rankings
Understanding the SEO implications of AI-generated content appearing in search results. Source: Respona Blog
ChatGPT's growing impact on Google search traffic patterns
AI chatbot conversations are increasingly appearing in Google's search index. Source: Writesonic Blog
  • 3 domeny naszych klientów miały strony ChatGPT /share pojawiające się w tych samych SERP-ach dla długich zapytań. W jednym przypadku udostępniona rozmowa ChatGPT o „best CRM for real estate agents” zajmowała 14. pozycję dla zapytania, przy którym wpis blogowy naszego klienta był na 11. miejscu. To już na tyle blisko, że mogło budzić niepokój.
  • Jakość treści była bardzo nierówna. Niektóre udostępnione rozmowy były naprawdę porządne (użytkownik zadawał ChatGPT szczegółowe pytania uzupełniające, a cały wątek czytało się jak dobrze ułożony artykuł). Inne były bełkotliwymi pół-rozmowami, które w ogóle nie powinny pojawiać się wysoko na żadne zapytania.
  • Po usunięciu z indeksu: te trzy konkurencyjne strony /share zniknęły, ale pozycje naszych klientów nie poprawiły się od razu. SERP przetasowywał się przez kolejne 48 godzin, a wolne miejsca zajęły inne strony. To pokazuje coś ważnego: usunięcie konkurenta z SERP-a nie oznacza automatycznie awansu dla ciebie — Google po prostu ocenia wszystkich kandydatów od nowa.

Cały epizod trwał tak krótko, że nikt nie poniósł trwałych szkód. Ale zostawił po sobie pytanie, do którego ciągle wracam: co się stanie, gdy następna firma AI nie zareaguje tak szybko jak OpenAI?

Szybka ankieta wśród 225 założycieli firm dobrze oddała ten zwrot nastrojów:

Opcja w ankiecie Głosy Wniosek
Tak — warte ryzyka 28.9 % Prawie jedna trzecia nadal zaryzykowałaby skróty z obszaru black hat SEO, nawet po zobaczeniu, jak strony znikają z indeksu z dnia na dzień.
Nie — potrzebuję ruchu z SEO 40.4 % Pragmatycy, którzy wiedzą, że ruch organiczny to dla nich podstawa.
Zaraz… można stracić cały ruch z SEO? 24.9 % Zaskoczeni nowicjusze, którzy właśnie odkrywają, co naprawdę znaczy „usunięty z indeksu”.
Co to są backlinks? 5.8 % Błogo nieświadomi — przynajmniej do czasu, aż problem dotknie ich bezpośrednio.

Tu stawka jest bardzo konkretna:

  • Utracone cytowania: Każdy asystent AI albo redakcja, która cytowała twój czat /share, traci wartość linków prowadzących do tej strony w momencie, gdy Google usuwa ją z indeksu.

  • Luka w widoczności AI: LLM-y trenowane na świeżych migawkach sieci traktują indeks Google jako sygnał zaufania. Nie ma indeksu, nie ma cytowania.

  • Urwisko ruchu organicznego: Jeśli Google może wyłączyć cię z SERP-a w jednym cyklu crawlowania, to cały proces tworzenia i publikacji treści jest odporny tylko na tyle, na ile rygorystycznie pilnujesz zgodności z wytycznymi.

Wczorajszy „growth hack” stał się dzisiejszą przestrogą — dowodem na to, że kiedy opierasz się na lukach zamiast na trwałych fundamentach SEO, od pojawiania się w wynikach do całkowitego zniknięcia dzieli cię czasem jedno odświeżenie Google.

Jak rozmowy ChatGPT są indeksowane przez Google i jak strony /share w ogóle trafiły do indeksu

To akurat uważam za najciekawszą część z perspektywy technicznego SEO, bo pokazuje, jak Google odkrywa i indeksuje treści nawet bez klasycznych sygnałów linkowych:

  1. Robots.txt zostawił drzwi szeroko otwarte
    Gdy ChatGPT uruchomił publiczną funkcję „Share”, jego plik robots.txt wprost zezwalał na crawlowanie /share/ w sekcji User-agent: *. Dla Googlebota to zielone światło, żeby pobrać, wyrenderować i potraktować każdą udostępnioną rozmowę jak zwykłą stronę HTML. To raczej wygląda na przeoczenie niż świadomą decyzję — OpenAI skupiało się na funkcji udostępniania, a nie na jej konsekwencjach dla SEO. (Sam robiłem podobne błędy. Nasze środowisko stagingowe było indeksowalne przez trzy tygodnie, zanim ktoś to zauważył. Zdarza się.)

  2. Mniej oczywiste sposoby, dzięki którym Google odkrywa adresy URL
    Nawet jeśli żadna strona nie linkowała do tych adresów, Google i tak mogło je znaleźć przez pasywne kanały danych, które społeczność SEO czasem nazywa „Google side-channels”.

    • Podpowiedzi adresów URL z Chrome — gdy miliony użytkowników wklejają link /share do paska adresu albo klikają go wewnątrz ChatGPT, Chrome może przekazywać anonimowe sygnały o adresach URL do systemów planujących indeksowanie Google.

    • Android Link Resolver — każde stuknięcie linku /share wewnątrz aplikacji na Androidzie wywołuje intencję rejestrowaną przez mechanizmy diagnostyczne Google Play.

    • Skanowanie Gmail & Workspace — udostępnione czaty wysyłane mailem między współpracownikami są skanowane pod kątem phishingu; adresy URL uznane za bezpieczne mogą trafiać do kolejki crawlowania.

    • Heurystyki Public DNS & QUIC — duża liczba zapytań DNS dla tego samego podkatalogu może sygnalizować, że „ta ścieżka ma znaczenie”.

    Wniosek jest prosty: brak linków wewnętrznych nie oznacza, że Google niczego nie odkryje. Google nie potrzebuje klasycznego grafu linków, jeśli zachowanie użytkowników samo wskazuje nowe adresy URL. I to ma znaczenie nie tylko dla ChatGPT — jeśli masz na stronie publicznie dostępne treści tworzone przez użytkowników, Google prawdopodobnie znajduje je kanałami, o których nawet nie myślisz.

  3. Treści generowane przez AI wyglądają na świeże i unikalne
    Każda strona /share zawierała nowy tekst, który nie był zduplikowany gdzie indziej, więc klasyfikator świeżości Google przypisał jej natychmiastową wartość. Połączenie dozwolonego crawlowania i unikalnej treści przyspieszyło wejście tych stron do aktywnego indeksu — część z nich w ciągu zaledwie kilku godzin od pierwszego udostępnienia.


Szybkie sprzątanie po stronie Google: naprawa w czterech ruchach

To, co czyni ten epizod pouczającym dla każdego, kto zarządza dużym serwisem, to szybkość i precyzja reakcji. Oto techniczny schemat działania, którego użyło OpenAI:

# Krok naprawczy Co robi Dlaczego działa szybko
1 Dodaj <meta name="robots" content="noindex"> Mówi Googlebotowi, żeby dalej crawlował, ale usunął stronę z indeksu. Tag jest respektowany przy następnym crawlu — często w czasie < 12 h.
2 Ustaw <link rel="canonical" href="https://chatgpt.com"> Konsoliduje wszelkie resztkowe sygnały rankingowe na stronie głównej. Zapobiega ponownemu pojawieniu się skanonikalizowanych duplikatów później.
3 Zgłoś hurtowo do Narzędzia do usuwania adresów URL Google Ukrywa adresy URL w wynikach natychmiast na około 6 miesięcy, podczas gdy trwa trwałe usuwanie z indeksu. Omija opóźnienie crawlowania; działa w ciągu minut.
4 (spodziewane) Zaktualizuj robots.txt, aby Disallow /share/ Całkowicie zatrzymuje żądania crawlowania, zmniejszając zużycie pasma i bałagan w logach. Ostatni szlif; gwarantuje, że nowe linki share nie wrócą do kolejki.

Ten czteroelementowy schemat — noindex + canonical + usunięcie adresów URL + robots.txt — naprawdę warto sobie zapisać. Jeśli kiedykolwiek będziesz musiał szybko usunąć z indeksu dużą sekcję serwisu (po wycieku środowiska stagingowego, przypadkowej publikacji albo eksplozji treści UGC), to jest najszybsze dostępne podejście. Używaliśmy bardzo podobnego schematu przy trzech kryzysowych sytuacjach u klientów w ostatnim roku i konsekwentnie czyścił zaindeksowane adresy URL w 24-48 godzin.

Dlaczego Google mogło zareagować w mniej niż 24 godziny

  • Priorytet dla dużych marek: Domeny z wysokim autorytetem są crawlowane częściej, więc zmiany dyrektyw propagują się szybciej. Gdy chatgpt.com coś komunikuje Google, Google reaguje dość szybko.

  • Ręczne popchnięcie: OpenAI niemal na pewno uruchomiło „Fetch as Google” w Search Console, żeby wymusić odświeżenie kluczowych stron po wdrożeniu nowych tagów.

  • Unikanie automatycznych kar: Systemy antyspamowe Google karzą thin content albo treści generowane przez użytkowników, jeśli skalują się bez kontroli; OpenAI miało mocną motywację, żeby zneutralizować ryzyko, zanim uruchomi się site-wide demotion.

Milion adresów URL kaca w Bing

Playbook sprzątania OpenAI zatrzymał się na Google Search Console. W efekcie Bing nadal pokazuje ~1 million /share pages w wynikach — cyfrowe miasto duchów z rozmowami ChatGPT, które są już niewidoczne w Google.

Tu historia robi się ciekawa z perspektywy SEO dla wielu wyszukiwarek. Sprawdziliśmy te same trzy zapytania klientów, dla których konkurencyjne strony /share pojawiały się w Google, i okazało się, że w Bing te strony wciąż zajmowały pozycje jeszcze pełny tydzień później. Ta rozbieżność pokazuje trzy strukturalne różnice między silnikami:

  1. Opóźnienie crawl-to-index — Googlebot wraca do domen o wysokim autorytecie w ciągu godzin; Bingbot często potrzebuje dni. Gdy OpenAI wdrożyło noindex i tagi kanoniczne, Google szybko przeszło ponowny crawl i zastosowało się do dyrektyw. Bing po prostu jeszcze nie przerobił swojego backlogu.

  2. Brak interwencji w BWT — wszystko wskazuje na to, że OpenAI pominęło Bing Webmaster Tools, więc Bingbot nadal podążał za pierwotną dyrektywą „Allowed”, dopóki jego naturalny rytm nie wychwycił zmian.

  3. Historyczny wzorzec opóźnień — to nic nowego. W 2021 Bing nadal pokazywał adresy URL favicon WordPressa tygodnie po tym, jak zostały usunięte z Google, a w zeszłym roku zaindeksował wyciekły katalog font-CSS, który Google zignorowało. Mniejsza flota botów Bing i bardziej zachowawcze okno aktualizacji sprawiają, że wyszukiwarka ma skłonność do przeciągającego się kaca po indeksacji, gdy duży serwis nagle zmienia dyrektywy.

Praktyczny wniosek: Jeśli polegasz na ruchu z Bing — albo na cytowaniach w ChatGPT, które opierają się na indeksie Bing — prowadź podwójne dashboardy. Wysyłaj prośby o usunięcie lub ponowny crawl zarówno w Search Console, jak i w Bing Webmaster Tools. Po tym incydencie dodaliśmy to jako standardowy krok w naszym playbooku awaryjnego usuwania z indeksu, bo nauczył nas (trochę boleśnie), że „naprawione w Google” nie znaczy „naprawione wszędzie”.

Dlaczego nieangielskie wyniki /share dominują w Bing

Dziwny efekt uboczny opóźnienia Bing: ocalałe strony /share to w ogromnej większości wyniki nieangielskie i zapisane alfabetami innymi niż łaciński — japońskie, rosyjskie, arabskie, tajskie. Zauważyliśmy to, bo jeden z naszych klientów ma subdomenę w języku japońskim i widział więcej konkurencyjnych stron /share w Bing JP niż w Bing US. Tę przewagę da się wyjaśnić trzema czynnikami:

  1. Regionalne wycinki indeksu aktualizują się wolniej — Bing dzieli indeks według lokalizacji. Najszybciej odświeżają się wycinki US-EN o dużym ruchu; peryferyjne segmenty językowe mogą czekać tydzień lub dłużej, zanim usuną strony z noindex.

  2. Priorytetyzacja klastrów duplikatów — algorytm deduplikacji Bing zostawia jeden adres URL w klastrze kanonicznym. Gdy angielskie wersje zniknęły z Google i straciły część wartości linkowania wewnętrznego, Bing przesunął wagę na unikalne warianty nieangielskie, które nadal miały sygnały zaangażowania użytkowników.

  3. Rozjazd między wyświetlaniem a indeksacją — Bing może oznaczyć adres URL jako „usunięty z indeksu” wewnętrznie, ale nadal pokazywać go w lokalizacjach o niskiej konkurencji aż do kolejnego pełnego cyklu wdrożeniowego.

Wniosek optymalizacyjny: W przypadku stron wielojęzycznych etapowe wdrażanie dyrektyw (np. najpierw EN, potem JP) może tworzyć niezamierzone okna zduplikowanej treści. Bezpieczniejsze podejście to wdrożenie noindex i aktualizacji tagów kanonicznych globalnie, a potem weryfikacja usunięcia w każdym lokalnym data center za pomocą kontroli SERP-ów przez VPN. Dodaliśmy to do naszej listy kontrolnej po wdrożeniu.

Powiązane materiały:

Obraz

SEOJuice
Stay visible everywhere
Get discovered across Google and AI platforms with research-based optimizations.
Works with any CMS
Automated Internal Links
On-Page SEO Optimizations
Get Started Free

no credit card required

More articles

No related articles found.