ChatGPT-chats verschenen in Google

Vadim Kravcenko
Vadim Kravcenko
· 5 min read

TL;DR: Gedeelde ChatGPT-conversaties verschenen in Google en verdwenen daarna binnen 24 uur weer. Dit is wat er gebeurde, wat het betekent voor SEO, en wat we in onze eigen monitoringdata zagen terwijl het zich live ontvouwde.

Nog geen 24 uur geleden deelden scherpe SEO's een opvallende ontdekking: de openbare /share-conversaties van ChatGPT waren volledig indexeerbaar, en sommige verschenen al in Google's top 20 voor long-tail zoekopdrachten. Het voelde als digitale alchemie: directe, gezaghebbende content die je niet zelf hoefde te schrijven. Screenshots belandden op Twitter, blogposts schoten uit de grond, en een paar opportunisten begonnen de chats zelfs te scrapen voor snelle affiliatepagina's.

En toen kwam de klap.

De volgende ochtend was elk /share-resultaat verdwenen uit Google's index. Typ vandaag site:chatgpt.com/share in en je ziet nul resultaten. OpenAI voerde stilletjes drie wijzigingen in rap tempo door: <meta name="robots" content="noindex">, een sitebrede canonical naar de homepage, en (hoogstwaarschijnlijk) een bulkverzoek via Google's URL Removal Tool. "ChatGPT share URLs" werd daarmee een actueel schoolvoorbeeld van bliksemsnelle de-indexering door Google.

Wat we in onze eigen data zagen

We volgden dit in realtime bij SEOJuice. Toen de eerste meldingen op Twitter opdoken, deed ik snel een check op onze klantsites om te zien of er /share-URL's opdoken als concurrerende pagina's. Dit vonden we:

Analysis of how ChatGPT affects traditional SEO and search rankings
Understanding the SEO implications of AI-generated content appearing in search results. Source: Respona Blog
ChatGPT's growing impact on Google search traffic patterns
AI chatbot conversations are increasingly appearing in Google's search index. Source: Writesonic Blog
  • 3 van onze klantdomeinen hadden ChatGPT-/share-pagina's die in dezelfde SERPs verschenen voor long-tail zoekopdrachten. In één geval stond een gedeelde ChatGPT-chat over "best CRM for real estate agents" op #14 voor een zoekopdracht waar de blogpost van onze klant op #11 stond. Dicht genoeg om zorgelijk te zijn.
  • De kwaliteit van de content liep flink uiteen. Sommige gedeelde conversaties waren echt grondig (een gebruiker had ChatGPT gedetailleerde vervolgvragen gesteld en de resulterende thread las als een goed opgebouwd artikel). Andere waren rommelige halve gesprekken die eigenlijk nergens voor hadden mogen ranken.
  • Na de de-indexering: De drie concurrerende /share-pagina's verdwenen, maar de posities van onze klanten verbeterden niet meteen. De SERP herschikte zich in de 48 uur daarna, waarbij andere pagina's de vrijgekomen plekken opvulden. Dat is een nuttige reminder: een concurrent uit de SERP halen betekent niet automatisch dat jij stijgt — Google beoordeelt gewoon opnieuw alle kandidaten.

De episode duurde kort genoeg dat niemand blijvende schade opliep. Maar het riep wel een vraag op waar ik steeds op terugkom: wat gebeurt er als het volgende AI-bedrijf niet zo snel reageert als OpenAI hier deed?

Een snelle poll onder 225 oprichters liet die stemmingswisseling mooi zien:

Polloptie Stemmen Conclusie
Ja — het risico waard 28.9 % Bijna een derde zou de dobbelsteen nog steeds gooien op black-hat-snelkoppelingen, zelfs nadat ze zagen hoe sites van de ene op de andere dag werden weggevaagd.
Nee — ik heb SEO-verkeer nodig 40.4 % De pragmatici die weten dat organisch verkeer hun levenslijn is.
Wacht… mijn SEO weg? 24.9 % Geschokte nieuwkomers die ontdekken wat "gedeïndexeerd" echt betekent.
Wat zijn backlinks? 5.8 % De zalig onwetenden — totdat zij aan de beurt zijn.

Duidelijker wordt het niet:

  • Verloren citaties: Elke AI-assistent of nieuwssite die jouw /share-chat aanhaalde, verliest die link equity zodra Google de pagina wist.

  • AI-zichtbaarheidskloof: LLMs die op verse snapshots van het web zijn getraind, gebruiken Google's index als vertrouwenssignaal. Geen index, geen citatie.

  • Afgrond voor organisch verkeer: Als Google je met één crawlcyclus uit de SERP kan tikken, dan is je contentproces maar zo sterk als je discipline rond compliance.

De growth-"hack" van gisteren werd het waarschuwende verhaal van vandaag — bewijs dat als je leunt op mazen in het systeem in plaats van op duurzame SEO-fundamenten, er soms maar één Google-refresh zit tussen ranken en verdwijnen.

Hoe /share-pagina's überhaupt in de index kwamen

Dit vind ik vanuit technisch SEO-oogpunt het interessantste deel, omdat het laat zien hoe Google content ontdekt en indexeert, zelfs zonder traditionele linksignalen:

  1. Robots.txt liet de deur wagenwijd open
    Toen ChatGPT de openbare "Share"-functie lanceerde, stond in het robots.txt-bestand expliciet dat crawlen van /share/ onder User-agent: * was toegestaan. Voor Googlebot is dat groen licht om elke gedeelde conversatie op te halen, te renderen en te behandelen als een normale HTML-pagina. Dat was vermoedelijk eerder een omissie dan een bewuste keuze — OpenAI was bezig met de deelfunctie, niet met de SEO-gevolgen. (Ik heb vergelijkbare fouten gemaakt. Onze stagingomgeving was drie weken indexeerbaar voordat iemand het doorhad. Gebeurt gewoon.)

  2. Google's verborgen kanalen om URL's te ontdekken
    Zelfs als geen enkele site naar die pagina's linkte, kon Google ze nog steeds boven water halen via passieve databronnen die de SEO-community "Google side-channels" noemt.

    • Chrome URL hints — wanneer miljoenen gebruikers een /share-link in de omnibox plakken of erop klikken binnen ChatGPT, voedt Chrome-telemetrie geanonimiseerde URL-samples aan Google's crawl scheduler.

    • Android Link Resolver — elke tik op een /share-URL binnen een Android-app triggert een intent die wordt gelogd door Play-services-diagnostiek.

    • Gmail & Workspace-scans — gedeelde chats die collega's naar elkaar mailen, worden gescand op phishing; URL's die onschuldig lijken, belanden daarna in de crawlqueue.

    • Public DNS & QUIC-heuristieken — DNS-look-ups met hoog volume voor dezelfde subdirectory geven het signaal af: "dit pad is belangrijk".

    Het nettoresultaat: geen interne links betekent niet dat er niets ontdekt wordt. Google heeft geen hyperlinkgrafiek nodig als gebruikersgedrag zelf al naar nieuwe URL's wijst. Dat heeft implicaties die verder gaan dan ChatGPT — als je publiek toegankelijke user-generated content op je site hebt, dan vindt Google die waarschijnlijk via kanalen waar je zelf niet eens aan denkt.

  3. AI-gegenereerde content oogt vers & uniek
    Elke /share-pagina bevatte nieuwe tekst die nergens anders gedupliceerd was, dus Google's freshness-classifier kende er direct waarde aan toe. De combinatie van toegestaan crawlen en unieke content versnelde opname in de live index — sommige pagina's al binnen uren nadat ze voor het eerst waren gedeeld.


Google's snelle schoonmaak: de vierledige aanpak

Wat deze episode leerzaam maakt voor iedereen die een grote site beheert, is de snelheid en precisie van de reactie. Dit is het technische draaiboek dat OpenAI gebruikte:

# Maatregel Wat het doet Waarom het snel werkt
1 Voeg <meta name="robots" content="noindex"> toe Vertelt Googlebot om te blijven crawlen maar de pagina uit de index te halen. De tag wordt bij de eerstvolgende crawl gerespecteerd — vaak < 12 h.
2 Stel <link rel="canonical" href="https://chatgpt.com"> in Consolideert eventuele resterende rankingsignalen naar de homepage. Voorkomt dat gecanonicaliseerde duplicaten later opnieuw opduiken.
3 Dien URL's in bulk in bij Google's URL Removal Tool Verbergt URL's direct uit de resultaten voor ~6 maanden terwijl de permanente de-indexering doorgaat. Omzeilt crawlvertraging; werkt binnen minuten.
4 (verwacht) Werk robots.txt bij naar Disallow /share/ Stopt crawlverzoeken volledig, wat bandbreedte en logvervuiling vermindert. De laatste afwerking; zorgt dat nieuwe share-links nooit meer terug in de queue komen.

Deze vierstappenaanpak — noindex + canonical + URL removal + robots.txt — is het waard om op te slaan. Als je ooit snel een groot deel van je site moet de-indexeren (na een lek in een stagingomgeving, een per ongeluk gepubliceerde sectie of een explosie aan user-generated content), dan is dit de snelste aanpak die je hebt. Wij hebben het afgelopen jaar een vergelijkbare aanpak gebruikt bij drie noodgevallen van klanten, en het ruimt geïndexeerde URL's consequent op binnen 24-48 uur.

Waarom Google binnen 24 uur kon reageren

  • Prioriteit voor grote merken: Domeinen met hoge autoriteit worden vaker gecrawld, dus wijzigingen in noindex- en canonical-instructies verspreiden sneller. Als chatgpt.com iets tegen Google zegt, luistert Google vrij snel.

  • Handmatige duw: OpenAI heeft vrijwel zeker "Fetch as Google" in Search Console getriggerd om kritieke pagina's snel te laten verversen nadat de nieuwe tags live gingen.

  • Automatische straf vermijden: Google's spamsystemen straffen dunne of door gebruikers gegenereerde content af die ongecontroleerd opschaalt; OpenAI had dus een sterke prikkel om het risico te neutraliseren voordat een sitebrede demotie zou inslaan.

Bing's kater van één miljoen URL's

OpenAI's schoonmaakaanpak stopte bij Google Search Console. Daardoor toont Bing nog steeds ~1 miljoen /share-pagina's in zijn resultaten — een digitale spookstad van ChatGPT-conversaties die nu onzichtbaar zijn in Google.

Hier wordt het verhaal interessant vanuit multi-engine SEO-perspectief. We controleerden dezelfde drie klantzoekopdrachten waar concurrerende /share-pagina's in Google opdoken, en zagen dat die pagina's in Bing een volle week later nog steeds rankten. Dat verschil legt drie structurele verschillen tussen de zoekmachines bloot:

  1. Crawl-naar-index-vertraging — Googlebot bezoekt domeinen met hoge autoriteit opnieuw binnen uren; Bingbot heeft vaak dagen nodig. Toen OpenAI noindex en canonicals toevoegde, recrawlde Google snel en volgde de instructies. Bing was simpelweg nog niet door zijn backlog heen.

  2. Geen BWT-interventie — Alles wijst erop dat OpenAI Bing Webmaster Tools heeft overgeslagen, waardoor Bingbot nog steeds de oorspronkelijke "Allowed"-instructie volgde totdat zijn natuurlijke ritme de wijzigingen oppikte.

  3. Historisch patroon van vertraging — Dit is niet nieuw. In 2021 bleef Bing wekenlang WordPress-favicon-URL's tonen nadat ze uit Google waren verwijderd, en vorig jaar indexeerde het een gelekte font-CSS-directory die Google negeerde. Bing's kleinere botvloot en conservatieve updatevenster maken het vatbaar voor indexatiekaters wanneer een prominente site plots instructies omgooit.

Praktische conclusie: Als je afhankelijk bent van Bing-verkeer — of van ChatGPT-citaties die leunen op Bing's index — werk dan met dubbele dashboards. Dien verwijderings- of recrawlverzoeken in bij zowel Search Console als Bing Webmaster Tools. Wij hebben dit na dit incident toegevoegd als standaardstap in ons noodplan voor de-indexering, omdat we pijnlijk hebben ondervonden dat "opgelost in Google" niet betekent "overal opgelost".

Waarom niet-Engelse /share-resultaten domineren in Bing

Een vreemd neveneffect van Bing's vertraging: de overgebleven /share-pagina's zijn overwegend niet-Engelse resultaten in niet-Latijnse alfabetten — Japans, Russisch, Arabisch, Thai. Dat viel ons op omdat één van onze klanten een Japans subdomein heeft en meer concurrerende /share-pagina's zag in Bing JP dan in Bing US. Drie factoren verklaren die scheefgroei:

  1. Regionale indexsegmenten updaten trager — Bing verdeelt zijn index per taal- en regiovariant. Drukke US-EN-segmenten verversen het snelst; perifere taalshards wachten soms een week of langer voordat noindex-pagina's worden opgeschoond.

  2. Prioritering van duplicaatclusters — Bing's deduplicatie-algoritme houdt één URL per canonical cluster aan. Toen de Engelse versies uit Google verdwenen en interlink equity verloren, verschoof Bing gewicht naar unieke niet-Engelse varianten die nog steeds signalen van gebruikersengagement hadden.

  3. Verschil tussen tonen en indexeren — Bing kan een URL intern als "gedeïndexeerd" markeren, maar die in markten met weinig concurrentie toch blijven tonen tot de volgende volledige uitrolcyclus.

Optimalisatie-inzicht: Voor meertalige sites kan een gefaseerde uitrol van instructies (bijvoorbeeld eerst EN, daarna JP) onbedoelde vensters voor duplicate content creëren. De veiligere aanpak is om noindex- en canonical-updates wereldwijd uit te rollen, en daarna verwijdering te verifiëren in elk taalspecifiek datacenter met VPN-gebaseerde SERP-checks. Wij hebben dit inmiddels toegevoegd aan onze checklist na uitrol.

Gerelateerde artikelen:

Afbeelding

SEOJuice
Stay visible everywhere
Get discovered across Google and AI platforms with research-based optimizations.
Works with any CMS
Automated Internal Links
On-Page SEO Optimizations
Get Started Free

no credit card required

More articles

No related articles found.