seojuice

Rozmowy ChatGPT są indeksowane przez Google

Vadim Kravcenko
Vadim Kravcenko
· Updated · 9 min read

Aktualizacja: maj 2026.

TL;DR: Udostępnione rozmowy ChatGPT trafiły do wyników Google, po czym zniknęły w ciągu 24 godzin. Poniżej wyjaśniamy, co się stało, jakie wnioski płyną dla SEO i co pokazują nasze dane monitoringowe z tego okresu. Czterostopniowy plan deindeksacji zastosowany przez OpenAI to coś, co warto sobie zapisać.

Mniej niż dobę temu garstka SEO-wców podzieliła się na Twitterze sprytnym odkryciem: publiczne rozmowy ChatGPT pod /share były w pełni indeksowalne, a niektóre strony już łapały się do TOP 20 Google na długie ogony. Pojawiły się zrzuty ekranu, wpisy na blogach, a kilku oportunistów zaczęło zrzucać czaty, by robić szybkie strony afiliacyjne. Gdy pierwszy raz zobaczyłem adres /share na pozycji #14 obok strony klienta, założyłem, że Google będzie reagował tygodniami. Tu się pomyliłem. Szczegóły poniżej.

Następnego ranka wszystkie wyniki /share zniknęły z indeksu Google. Wpisz dziś site:chatgpt.com/share i zobaczysz zero wyników. OpenAI po cichu wdrożyło trzy zmiany w szybkiej sekwencji: tag <meta name="robots" content="noindex">, kanoniczny link site-wide wskazujący na stronę główną oraz (najpewniej) hurtowe zgłoszenie przez URL Removal Tool. „ChatGPT share URLs” stały się praktycznym case study błyskawicznej deindeksacji w Google. Najczystsze, jakie widziałem na taką skalę.

Tekst na Searchengineland opisał incydent jako temat prywatności. TechCrunch również ujął to w ten sposób. Oba artykuły warto przeczytać. Dla nas ciekawsze są jednak mechanizmy SEO i reakcje poszczególnych wyszukiwarek.

Co zobaczyliśmy w naszych danych

Odpowiadam za monitoring SEO po stronie klientów w SEOJuice, więc gdy pierwsze sygnały pojawiły się na Twitterze, zrobiłem szybki site: search na domenach, które śledzimy, by sprawdzić, czy jakieś adresy /share konkurują z naszymi stronami. Wyniki:

  • Trzy domeny klientów miały strony ChatGPT /share w tych samych SERP-ach na długie ogony. W jednym przypadku rozmowa o „best CRM for real estate agents” była na #14, podczas gdy wpis blogowy klienta siedział na #11. Wystarczająco blisko, by nie spać spokojnie.
  • Jakość treści była nierówna. Niektóre rozmowy były naprawdę szczegółowe (użytkownik dopytywał, a wątek przypominał ustrukturyzowany artykuł). Inne to bełkotliwe pół-rozmowy, które nie powinny rankować na nic.
  • Po deindeksacji: Te trzy konkurencyjne strony /share zniknęły, ale pozycje klientów nie wzrosły od razu. SERP tasował się przez kolejne 48 godzin, a wolne miejsca zajęły inne strony. Usunięcie konkurenta nie oznacza automatycznego awansu – Google ocenia wszystkich od nowa.

Nie zrobiłem screena pojedynku #14 vs #11, zanim SERP się oczyścił. Błąd – lekcja na przyszłość: loguj stan SERP-a od razu, kiedy coś wygląda dziwnie. Mam za to eksport Search Console z adresami konkurencji dla tych trzech domen; wpisy chatgpt.com/share/… są wyraźnie obecne przed, a znikają po.

Epilog był tak krótki, że żaden klient nie ucierpiał trwale. Ale rodzi się pytanie: co, jeśli kolejna firma AI nie zareaguje tak szybko jak OpenAI? W naszej sieci zdania się podzieliły: część founderów kusi, by znów wskoczyć w lukę, gdy tylko się otworzy. Inni odetchnęli, że ich ruch organiczny wciąż ma znaczenie. Christopher Penn w cytacie dla Searchengineland ujął to biznesowo: „Jeśli czat konkurenta rankuje na zapytanie, na które ty pracowałeś pół roku, to jest problem biznesowy. Prywatność jest ważna, ale to SEO zapyta zarząd.” W taki sposób podchodziłbym do tego z klientem.

Stawka:

  • Utracone cytowania: Każdy asystent AI lub serwis newsowy, który linkował do twojej strony /share, traci equity, gdy Google usuwa ją z indeksu.

  • Luka w widoczności AI: Modele LLM uczące się z aktualnego internetu traktują indeks Google jako sygnał zaufania. Brak indeksu = brak cytatu.

  • Organiczny klif ruchu: Skoro Google może wyczyścić cię z SERP-a w jednej rundzie crawla, twój pipeline treści jest tak mocny, jak twoja dyscyplina compliance.

Wczorajszy growth hack stał się dzisiejszą przestrogą. Jeśli opierasz się na lukach zamiast na trwałych podstawach SEO, droga od rankingu do niewidoczności to jeden refresh Google.

Jak strony /share w ogóle trafiły do indeksu

Z perspektywy technicznego SEO to najciekawsze, bo pokazuje, jak Google odkrywa treści bez klasycznego linkowania:

  1. Robots.txt zostawił otwarte drzwi. Gdy ChatGPT uruchomił opcję „Share”, plik robots.txt wyraźnie zezwalał na crawl /share/ w sekcji User-agent: *. Dla Googlebota to zielone światło, by pobrać, wyrenderować i ocenić każdą rozmowę jak zwykłą stronę HTML. Zapewne przeoczenie, a nie świadomy wybór – OpenAI skupiało się na funkcji udostępniania, nie na SEO. (Miałem podobne wtopy – środowisko staging było indeksowalne przez trzy tygodnie, nim ktoś to zauważył. Zdarza się każdemu.)

  2. Odkrywanie ukrytych URL-i przez Google jest szersze, niż się wydaje. Nawet jeśli nikt nie linkuje do strony, Google może ją wyłapać z sygnałów pasywnych. Społeczność SEO od lat spekuluje o konkretnych mechanizmach, choć Google nie ujawnił pełnej listy. Dwa najbardziej prawdopodobne, które Google w jakimś stopniu potwierdził:

    • Telemetria przeglądania w Chrome. Chrome raportuje dane nawigacyjne do harmonogramu crawla. Dokumentacja Safe Browsing potwierdza, że odwiedzane URL-e mogą trafić do kolejki. Jeśli miliony użytkowników wklejają lub klikają linki /share w Chrome, to wystarczy.

    • Odkrycie przez szerszy graf Google. Gmail, podglądy w Workspace, intenty Androida, zapytania DNS – wszystko to przewija się w dyskusjach SEO. Search Engine Journal pisał o teorii „kliknięcia z Chrome → indeksowanie” w 2021, a Google odpowiedział lakonicznym „no comment”. Traktuj to jako możliwe mechanizmy, nie udokumentowane zachowanie.

    Wniosek: Brak linków wewnętrznych ≠ brak odkrycia. Google nie potrzebuje grafu hiperłączy, gdy samo zachowanie użytkowników wskazuje nowe adresy. Jeśli masz treści UGC publicznie dostępne, Google prawdopodobnie je znajduje kanałami, których nie monitorujesz.

  3. Treści wygenerowane przez AI wyglądają świeżo i unikalnie. Każda strona /share zawierała oryginalny tekst, więc klasyfikator świeżości Google od razu nadał im wartość. Połączenie otwartego crawla i unikalnej treści wprowadziło je do indeksu w kilka godzin od pierwszego udostępnienia.


Błyskawiczne sprzątanie Google: cztery działania

Najbardziej pouczające dla każdego, kto zarządza dużą witryną, jest tu tempo i precyzja reakcji. Oto techniczny playbook OpenAI – korzystaj:

# Krok Co robi Dlaczego działa szybko
1 Dodaj <meta name="robots" content="noindex"> Informuje Googlebota, by dalej crawlał, ale usunął stronę z indeksu. Tag respektowany przy następnym crawl, często w 12 h.
2 Ustaw <link rel="canonical" href="https://chatgpt.com"> Przekazuje resztkowe sygnały rankingowe na stronę główną. Zapobiega powrotowi skanonizowanych duplikatów.
3 Zgłoś hurtowo w URL Removal Tool Google Ukrywa URL-e natychmiast na ~6 miesięcy, podczas gdy trwa trwała deindeksacja. Omina latencję crawla; działa w minuty.
4 (oczekiwany) Zaktualizuj robots.txt i Disallow /share/ Blokuje crawl całkowicie, oszczędza bandwidth i logi. Ostatni szlif; nowe linki share nie trafią ponownie do kolejki.

Ten czterostopniowy schemat (noindex + canonical + URL Removal + robots.txt) to mój zestaw ratunkowy przy każdej awaryjnej deindeksacji. Kolejność ma znaczenie: najpierw noindex (najszybszy sygnał), potem canonical, potem Removal Tool dla natychmiastowego „zniknij”, na końcu robots.txt – bo jeśli Disallow pojawi się przed propagacją noindex, Google nie wróci, by go odczytać (klasyczny błąd). Wdrażałem podobny proces u klienta SaaS, który przypadkowo opublikował 4 000 wewnętrznych ticketów – większość URL-i zniknęła w 28 h.

Dlaczego Google zdążyło w 24 h

  • Priorytet dużej marki: Domeny o wysokim autorytecie crawlowane są częściej, więc zmiany propagują się szybciej. Gdy chatgpt.com coś sygnalizuje, Google reaguje.

  • Ręczne przyspieszenie: OpenAI niemal na pewno użyło „Fetch as Google” w Search Console, by wymusić odświeżenie kluczowych stron po wdrożeniu tagów.

  • Uniknięcie kary automatycznej: Systemy anty-spam Google karzą cienkie lub niekontrolowane treści UGC, więc OpenAI musiało zneutralizować ryzyko przed ewentualną degradacją całej witryny.

Million-URL hangover w Bing

Playbook OpenAI zatrzymał się na Google Search Console. W rezultacie Bing nadal pokazuje około miliona stron /share – cichą samowolkę rozmów ChatGPT niewidocznych w Google. Dokładna liczba jest zmienna (site: w Bing potrafi skakać), ale skala różni się od google’owego zera o rząd wielkości.

Przypominasz sobie tag noindex z playbooka? Bing po prostu nie zdążył jeszcze ponownie zaliczyć crawla. Sprawdziłem te same trzy zapytania klientów – w Bing strony /share wciąż rankowały tydzień później. Zakładałem, że Bing zrówna się z Google. Nie zrównał. Różnica wynika z trzech kwestii:

  1. Latencja crawl-indeks. Googlebot wraca do mocnych domen w godziny. Bingbot potrzebuje często dni. Kiedy OpenAI dodało noindex i canonical, Google szybciej je odczytał; Bing jeszcze nie.

  2. Brak interwencji w BWT. Wszystko wskazuje, że OpenAI pominęło Bing Webmaster Tools, więc Bingbot dalej respektował pierwotne „Allow”, aż do kolejnego naturalnego crawla.

  3. Historyczny lag. To nie nowość: incydent z favicon-URL w 2021 i sprawa katalogu font-CSS rok temu pokazały podobne opóźnienia, choć brakuje czystych źródeł. Traktuj to jako zbiorową wiedzę branży.

Wniosek praktyczny: Jeśli zależy ci na ruchu z Binga albo na cytatach ChatGPT bazujących na jego indeksie, prowadź podwójne dashboardy. Zgłaszaj usunięcia lub recrawl w Search Console i Bing Webmaster Tools. „Naprawione w Google” ≠ „naprawione wszędzie”.

Dlaczego w Bing dominują nieangielskie wyniki /share

Ciekawy efekt uboczny laga Binga: ocalałe strony /share to głównie nieangielskie, w alfabetach nielatyńskich – japoński, rosyjski, arabski, tajski. Zauważyłem to, bo jeden z naszych klientów ma subdomenę JP i w Bing JP widział więcej konkurujących /share niż w Bing US. Trzy czynniki to tłumaczą:

  1. Wolniejsze aktualizacje lokalnych shardów. Bing dzieli indeks na lokalizacje. US-EN odświeża najszybciej; peryferyjne języki mogą czekać tydzień lub dłużej, zanim usuną strony z noindex.

  2. Priorytetyzacja klastrów duplikatów. Algorytm de-dupe Binga zostawia jeden URL na klaster kanoniczny. Gdy wersje EN zniknęły w Google i straciły link equity, Bing przesunął wagę na unikalne warianty nieangielskie.

  3. Rozjazd serve vs. index. Bing może oznaczyć URL jako „deindexed” wewnętrznie, ale wciąż serwować go w lokalizacjach o małej konkurencji do kolejnego pełnego cyklu deploy.

Wskazówka optymalizacyjna: Dla stron wielojęzycznych stopniowe wdrażanie dyrektyw (np. najpierw EN, potem JP) może tworzyć okno duplikatów. Bezpieczniej wdrożyć noindex i canonical globalnie, a potem zweryfikować usunięcie w każdym DC przez VPN-owe SERP-checki. Dorzuciłem to do swojej checklisty.

FAQ

P1. Czy rozmowy ChatGPT są nadal indeksowane przez Google?
Nie. Według stanu z omówionego okna czyszczenia adresy /share nie są już w indeksie Google. Zapytanie site:chatgpt.com/share zwraca zero wyników. OpenAI wdrożyło noindex, kanoniczny link i hurtowo zgłosiło usunięcie URL-i. Bing nadal pokazuje ~1 mln stron /share, choć licznik spada z tygodnia na tydzień.

P2. Jak mogę ukryć swój link „Share” w ChatGPT?
Z poziomu rozmowy w ChatGPT kliknij „Share”, a potem wybierz opcję usunięcia lub cofnięcia udostępnienia. Tag noindex od OpenAI obejmuje też starsze linki, więc nawet żywe adresy /share nie wrócą do Google. Jeśli stara wersja nadal się pokazuje w cache’u, zgłoś ją przez narzędzie Remove Outdated Content.

P3. Dlaczego Google tak szybko zdeindeksował rozmowy?
Złożyły się trzy czynniki: wysoki autorytet domeny (szybki crawl), OpenAI wdrożyło wszystkie trzy sygnały deindeksacji jednocześnie (noindex, canonical, Removal Tool) oraz systemy anty-spam Google priorytetyzują szybkie działanie na masowej treści UGC. Czterostopniowy playbook opisany wyżej to techniczne uzasadnienie tej prędkości.

P4. Czy deindeksacja czatów ChatGPT szkodzi SEO witryn, które do nich linkowały?
Minimalnie. Linki wychodzące do strony zdeindeksowanej działają jak do 404 czy noindex: przestają przekazywać equity, a adres docelowy traci cytowanie. Jeśli cytowałeś URL /share w poście, zamień go na zrzut ekranu lub poprawnie podpisany cytat. Sam link to teraz martwy balast.

P5. Co zrobić, jeśli strona /share konkurenta rankuje wyżej niż moja?
Najpierw sprawdź, czy wciąż tam jest (wyszukaj zapytanie, nie ufaj staremu zrzutowi). Jeśli tak, zgłoś URL przez Spam Report Google jako thin/UGC i udokumentuj. Potem skup się na własnej stronie: odśwież treść, rozszerz temat, dodaj linkowanie wewnętrzne. Usunięcie konkurenta nie promuje cię automatycznie – Google ocenia wszystkich kandydatów na nowo.

Sedno sprawy

Historia z ChatGPT /share to wyjątkowo czysty przykład, jak szybko Google reaguje, gdy duża marka musi usunąć URL-e. To też przypomnienie, że ten sam playbook (noindex + canonical + URL Removal Tool + robots.txt, w tej kolejności) powinieneś mieć pod ręką na własne awarie. Zapisz tabelę powyżej.

I pamiętaj o wielosilnikowym podejściu. Google posprzątał z dnia na dzień, ale resztki /share w Bing przypominają, że „naprawione tu” rzadko znaczy „naprawione wszędzie” – zwłaszcza między językami i lokalnymi shardami indeksu.

Chcesz wykrywać, gdy adresy AI lub udostępnione UGC zaczynają konkurować z twoimi stronami? SEOJuice śledzi konkurencyjne URL-e (w tym platform AI /share) dla twoich kluczowych fraz, flaguje nowe wejścia w SERP-ie i podpowiada, które lepiej zdeindeksować, a które przebić. Darmowy test, bez karty.

Powiązane materiały:

Image

SEOJuice
Stay visible everywhere
Get discovered across Google and AI platforms with research-based optimizations.
Works with any CMS
Automated Internal Links
On-Page SEO Optimizations
Get Started Free

no credit card required

More articles

No related articles found.