TL;DR: Gedeelde ChatGPT-chats doken op in de zoekresultaten van Google en verdwenen daarna binnen 24 uur weer. Hieronder lees je wat er gebeurde, wat het betekent voor SEO, en wat we in onze eigen monitoringdata zagen terwijl dit zich ontvouwde.
Minder dan 24 uur geleden deelden scherpe SEO's een opvallende ontdekking: de openbare /share-pagina's van ChatGPT waren volledig indexeerbaar, en sommige verschenen al in de top 20 van Google voor long-tail zoekopdrachten. De vondst voelde bijna als digitale alchemie: directe, gezaghebbende content die je niet zelf hoefde te schrijven. Screenshots belandden op Twitter, blogposts schoten uit de grond, en een paar opportunisten begonnen de chats zelfs te scrapen om snel affiliatepagina's op te zetten.
En toen ging het ineens hard.
De volgende ochtend was elk /share-resultaat verdwenen uit de index van Google. Typ vandaag site:chatgpt.com/share in en je ziet nul resultaten. OpenAI voerde stilletjes drie wijzigingen in rap tempo door: <meta name="robots" content="noindex">, een sitebrede canonical naar de homepage, en (hoogstwaarschijnlijk) een bulkverzoek via Google's URL Removal Tool. "ChatGPT share URLs" werd daarmee een praktijkvoorbeeld van hoe snel Google kan deïndexeren.
We volgden dit in realtime bij SEOJuice. Toen de eerste meldingen op Twitter opdoken, deed ik snel een controle op onze klantsites om te zien of er /share-URL's verschenen als concurrerende pagina's. Dit kwamen we tegen:


/share-pagina's die in dezelfde SERPs verschenen voor long-tail zoekopdrachten. In één geval rankte een gedeelde ChatGPT-chat over "best CRM for real estate agents" op #14 voor een zoekopdracht waar de blogpost van onze klant op #11 stond. Dat zat dicht genoeg op elkaar om relevant te zijn./share-pagina's verdwenen, maar de posities van onze klanten verbeterden niet meteen. De SERP herschikte zich in de 48 uur daarna, waarbij andere pagina's de vrijgekomen plekken opvulden. Dat onderstreept opnieuw dat het verwijderen van een concurrent uit de SERP je niet automatisch omhoog duwt — Google beoordeelt simpelweg opnieuw alle kandidaten.De episode was kort genoeg dat niemand blijvende schade opliep. Maar het riep wel een vraag op waar ik steeds op terugkom: wat gebeurt er als het volgende AI-bedrijf niet zo snel reageert als OpenAI hier deed?
Een snelle poll onder 225 founders liet die stemmingswisseling mooi zien:
| Polloptie | Stemmen | Conclusie |
|---|---|---|
| Ja — het risico waard | 28.9 % | Bijna een derde zou nog steeds gokken op black-hatshortcuts, zelfs nadat ze zagen hoe sites van de ene op de andere dag uit de index verdwenen. |
| Nee — ik heb SEO-verkeer nodig | 40.4 % | De pragmatici die weten dat organisch verkeer hun levenslijn is. |
| Wacht… mijn SEO weg? | 24.9 % | Geschokte nieuwkomers die leren wat "gedeïndexeerd" echt betekent. |
| Wat zijn backlinks? | 5.8 % | De zalig onwetenden — totdat zij aan de beurt zijn. |
De inzet kon nauwelijks duidelijker zijn:
Verloren vermeldingen: Elke AI-assistent of nieuwssite die jouw /share-chat aanhaalde, verliest die link equity zodra Google de pagina verwijdert.
AI-zichtbaarheidskloof: LLMs die op verse snapshots van het web zijn getraind, gebruiken de index van Google als vertrouwenssignaal. Geen index, geen vermelding.
Instorting van organisch verkeer: Als Google je met één crawlcyclus uit de SERP kan tikken, dan is je contentproces maar zo sterk als je discipline rond compliance.
De growth "hack" van gisteren is de les van vandaag — bewijs dat als je leunt op mazen in het systeem in plaats van op duurzame SEO-fundamenten, er soms maar één indexupdate van Google zit tussen ranken en verdwijnen.
Dit is technisch gezien het interessantste deel, omdat het laat zien hoe Google content ontdekt en indexeert, zelfs zonder traditionele linksignalen:
Robots.txt liet de deur wagenwijd open
Toen ChatGPT de openbare "Share"-functie lanceerde, stond in het robots.txt-bestand expliciet dat crawlen van /share/ onder User-agent: * was toegestaan. Voor Googlebot is dat groen licht om elke gedeelde conversatie op te halen, te renderen en te behandelen als een normale HTML-pagina. Dat was waarschijnlijk eerder een omissie dan een bewuste keuze — OpenAI was gefocust op de share-functie, niet op de SEO-gevolgen. (Ik heb vergelijkbare fouten gemaakt. Onze stagingomgeving was drie weken indexeerbaar voordat iemand het doorhad. Gebeurt vaker dan je denkt.)
De manieren waarop Google nieuwe URL's ontdekt
Zelfs als geen enkele site naar die pagina's linkte, kon Google ze nog steeds ontdekken via indirecte databronnen die de SEO-community "Google side-channels" noemt.
Chrome URL hints — wanneer miljoenen gebruikers een /share-link in de omnibox plakken of erop klikken binnen ChatGPT, voedt Chrome-telemetrie geanonimiseerde URL-samples aan Google's crawlscheduler.
Android Link Resolver — elke tik op een /share-URL binnen een Android-app triggert een intent die wordt gelogd door Play-services-diagnostiek.
Gmail & Workspace-scans — gedeelde chats die collega's naar elkaar mailen, worden gescand op phishing; URL's die veilig lijken, belanden vervolgens in de crawlqueue.
Public DNS & QUIC-heuristieken — DNS-look-ups met hoog volume voor dezelfde subdirectory geven het signaal af: "dit pad is belangrijk".
Het nettoresultaat: Geen interne links betekent niet dat er geen ontdekking plaatsvindt. Google heeft geen hyperlinkgrafiek nodig als gebruikersgedrag zelf al naar nieuwe URL's wijst. Dat heeft implicaties die verder gaan dan ChatGPT — als je publiek toegankelijke content van gebruikers op je site hebt, dan vindt Google die waarschijnlijk via kanalen waar je zelf niet eens aan denkt.
AI-gegenereerde content oogt vers & uniek
Elke /share-pagina bevatte nieuwe tekst die nergens anders gedupliceerd was, dus Google's versheidsclassificatie kende er direct waarde aan toe. De combinatie van toegestaan crawlen en unieke content versnelde opname in de live index — sommige pagina's al binnen uren nadat ze voor het eerst waren gedeeld.
Wat deze episode leerzaam maakt voor iedereen die een grote site beheert, is de snelheid en precisie van de reactie. Dit is het technische playbook dat OpenAI gebruikte:
| # | Mitigatiestap | Wat het doet | Waarom het snel werkt |
|---|---|---|---|
| 1 | Voeg <meta name="robots" content="noindex"> toe |
Vertelt Googlebot om te blijven crawlen maar de pagina uit de index te halen. | De tag wordt bij de eerstvolgende crawl gerespecteerd — vaak < 12 h. |
| 2 | Stel <link rel="canonical" href="https://chatgpt.com"> in |
Consolideert eventuele resterende rankingsignalen naar de homepage. | Voorkomt dat gecanonicaliseerde duplicaten later opnieuw opduiken. |
| 3 | Dien URL's in bulk in bij Google's URL Removal Tool | Verbergt URL's direct uit de resultaten voor ~6 maanden terwijl de permanente deindexering doorgaat. | Omzeilt crawlvertraging; werkt binnen minuten. |
| 4 (verwacht) | Werk robots.txt bij naar Disallow /share/ |
Stopt crawlverzoeken volledig, wat bandbreedte en logvervuiling vermindert. | De laatste afwerking; zorgt dat nieuwe share-links nooit meer terug de queue in gaan. |
Dit vierstappen-playbook — noindex + canonical + URL removal + robots.txt — is het waard om op te slaan. Als je ooit snel een groot deel van je site moet deindexeren (na een lek in een stagingomgeving, een per ongeluk gepubliceerde sectie of een explosie aan content van gebruikers), dan is dit de snelste aanpak die je hebt. Wij hebben het afgelopen jaar een vergelijkbaar playbook gebruikt bij drie noodgevallen van klanten, en het ruimt geïndexeerde URL's consequent op binnen 24-48 uur.
Prioriteit voor grote merken: Domeinen met hoge autoriteit worden vaker gecrawld, dus wijzigingen in directives verspreiden sneller. Als chatgpt.com iets tegen Google zegt, luistert Google vrij snel.
Handmatige duw: OpenAI heeft vrijwel zeker een geforceerde hercrawl in Search Console getriggerd om kritieke pagina's snel te laten verversen nadat de nieuwe tags live gingen.
Automatische straf vermijden: Google's spamsystemen straffen dunne of door gebruikers gegenereerde content af die ongecontroleerd opschaalt; OpenAI had dus een sterke prikkel om het risico te neutraliseren voordat een sitebrede demotie zou inslaan.
OpenAI's schoonmaakplaybook stopte bij Google Search Console. Daardoor toont Bing nog steeds ~1 miljoen /share-pagina's in zijn resultaten — een digitale spookstad van ChatGPT-chats die nu onzichtbaar zijn in Google.
Hier wordt het verhaal interessant vanuit multi-engine SEO-perspectief. We controleerden dezelfde drie klantzoekopdrachten waar concurrerende /share-pagina's in Google opdoken, en zagen dat die pagina's in Bing een volle week later nog steeds rankten. Dat verschil legt drie structurele verschillen tussen de zoekmachines bloot:
Crawl-naar-index-vertraging — Googlebot bezoekt domeinen met hoge autoriteit opnieuw binnen uren; Bingbot heeft vaak dagen nodig. Toen OpenAI noindex en canonicals toevoegde, recrawlde Google snel en volgde de instructies. Bing was simpelweg nog niet door zijn backlog heen.
Geen BWT-interventie — Alles wijst erop dat OpenAI Bing Webmaster Tools heeft overgeslagen, waardoor Bingbot nog steeds de oorspronkelijke "Allowed"-directive volgde totdat zijn natuurlijke ritme de wijzigingen oppikte.
Historisch patroon van vertraging — Dit is niet nieuw. In 2021 bleef Bing wekenlang WordPress-favicon-URL's tonen nadat ze uit Google waren verwijderd, en vorig jaar indexeerde het een gelekte font-CSS-directory die Google negeerde. Bing's kleinere botvloot en conservatieve updatevenster maken het vatbaar voor indexatiekaters wanneer een prominente site plots directives omgooit.
Praktische conclusie: Als je afhankelijk bent van Bing-verkeer — of van ChatGPT-vermeldingen die leunen op Bing's index — werk dan met dubbele dashboards. Dien verwijderings- of recrawlverzoeken in bij zowel Search Console als Bing Webmaster Tools. Wij hebben dit na dit incident toegevoegd als standaardstap in ons nood-playbook voor deindexering, omdat we op de harde manier leerden dat "opgelost in Google" niet betekent "overal opgelost".
Een vreemd neveneffect van Bing's vertraging: de overgebleven /share-pagina's zijn overwegend niet-Engelse resultaten in niet-Latijnse alfabetten — Japans, Russisch, Arabisch, Thai. Dat viel ons op omdat één van onze klanten een Japans subdomein heeft en meer concurrerende /share-pagina's zag in Bing JP dan in Bing US. Drie factoren verklaren die scheefgroei:
Regionale indexsegmenten updaten trager — Bing verdeelt zijn index per taal- en regiovariant. Drukke US-EN-segmenten verversen het snelst; perifere taalshards wachten soms een week of langer voordat noindex-pagina's worden opgeschoond.
Prioritering van duplicaatclusters — Bing's deduplicatie-algoritme houdt één URL per canonical cluster aan. Toen de Engelse versies uit Google verdwenen en interlink equity verloren, verschoof Bing gewicht naar unieke niet-Engelse varianten die nog steeds signalen van gebruikersengagement hadden.
Verschil tussen tonen en indexeren — Bing kan een URL intern als "gedeïndexeerd" markeren, maar die in markten met weinig concurrentie toch blijven tonen tot de volgende volledige uitrolcyclus.
Optimalisatie-inzicht: Voor meertalige sites kan een gefaseerde uitrol van directives (bijvoorbeeld eerst EN, daarna JP) onbedoelde vensters voor duplicate content creëren. De veiligere aanpak is om noindex- en canonical-updates wereldwijd uit te rollen, en daarna verwijdering te verifiëren in elk taalspecifiek datacenter met VPN-gebaseerde SERP-checks. Wij hebben dit inmiddels toegevoegd aan onze checklist na uitrol.
Gerelateerde artikelen:

no credit card required
No related articles found.