Search Engine Optimization Intermediate

Indexation des fragments d'URL

Les URL basées sur le hachage peuvent perturber l’indexation, gaspiller le budget de crawl et masquer des pages qui génèrent des revenus, sauf si le contenu est exposé via de vraies URL « crawlables ».

Updated Avr 04, 2026

Quick Definition

L’indexation des fragments d’URL repose sur l’idée erronée selon laquelle le contenu situé après un « # » dans une URL pourrait se positionner comme une page à part entière. C’est important, car Google ignore généralement les fragments à des fins d’indexation : tout contenu essentiel, ainsi que la logique de routage ou les filtres hébergés à cet endroit sont donc le plus souvent invisibles dans les résultats de recherche.

Indexation des fragments d’URL est surtout un problème hérité, mais on la retrouve encore chaque mois dans les audits des applications monopage (SPA). Si le contenu important n’apparaît qu’à /page#state ou /page#!/view, Google le considère généralement comme la même URL que /page, et non comme un document distinct.

L’impact pour l’activité est simple. Les URL masquées ne se positionnent pas. Les états produit, les articles d’aide, les vues de catégories filtrées et les routes de l’application peuvent disparaître des résultats de recherche, même si les utilisateurs y accèdent parfaitement depuis le navigateur.

Ce que Google fait réellement des fragments

Pour l’indexation “classique”, les moteurs de recherche suppriment le fragment. Google a abandonné l’ancien schéma d’exploration AJAX depuis des années, ce qui a fait disparaître l’ancien contournement #!. En pratique, Googlebot demande l’URL de base, et non pas chaque variante de hash empilée dessus.

Cela signifie que example.com/docs#setup n’est pas une deuxième page. C’est le plus souvent example.com/docs avec un saut à l’intérieur de la page. Si votre routeur React ou Vue dépend encore d’états basés sur le hash pour du contenu unique, vous avez un problème d’indexation, pas une simple particularité technique.

Un point de vigilance honnête : les fragments sont très bien pour les ancres, les onglets et les liens de saut sur une page déjà indexable. Le problème commence quand les équipes attendent qu’ils créent des entrées de recherche autonomes.

Où cela casse la performance SEO

  • SPAs avec routage par hash : des routes comme /#/pricing ou /#!/features se retrouvent souvent regroupées en une seule URL explorable.
  • Navigation à facettes : les filtres chargés uniquement via des fragments ne peuvent pas obtenir des positions sur les combinaisons longue traîne.
  • Centres de documentation : les états d’articles rendus derrière des fragments échouent souvent à être indexés individuellement.
  • Confusion autour de l’équité des liens : les backlinks vers des variantes de fragments créent rarement des signaux de classement distincts pour ces états.

Dans Screaming Frog, cela se manifeste généralement comme une seule URL HTML avec énormément de changements d’état JavaScript, mais sans chemins de crawl distincts. Dans Google Search Console, vous voyez des impressions concentrées sur l’URL de base, tandis que les vues “enfant” supposées ne reçoivent rien. Ensuite, Ahrefs et Semrush indiquent moins d’URLs qui se positionnent que ce que l’équipe produit pense exister.

Que faire à la place

  1. Déplacer les états importants vers de vraies URL via un routage basé sur le chemin (path-based) ou des paramètres de requête (query parameters).
  2. Rendre le contenu indexable côté serveur, ou le pré-rendre avec des frameworks comme Next.js, Nuxt ou Astro.
  3. Définir des canonicals sur les nouvelles URL, pas sur les versions par fragments.
  4. Mettre à jour les liens internes, les sitemaps XML et la navigation pour permettre à Google de découvrir les nouveaux chemins.
  5. Valider avec l’inspection d’URL dans GSC, des crawls rendus dans Screaming Frog, et les fichiers de logs si vous en disposez.

S’il s’agit d’une migration, associez autant que possible les anciennes destinations utilisateurs basées sur des fragments à des URL équivalentes explorables. Stricto sensu, vous ne pouvez pas faire un 301 d’un fragment, car le fragment est géré côté client et n’est pas envoyé dans la requête HTTP. C’est le point que beaucoup de glossaires omettent. Vous avez besoin d’une gestion JavaScript, de mises à jour des liens internes et d’une récupération des liens externes dans Ahrefs ou Moz, et pas d’une simple règle de redirection côté serveur.

En résumé : les fragments servent à la position dans une page, pas à créer des documents indexables. Si la page compte pour le trafic organique, donnez-lui une vraie URL.

Frequently Asked Questions

Google peut-il indexer du contenu situé derrière un fragment d’URL ?
En général, ce n’est pas une page distincte. Google ignore généralement le fragment pour l’indexation et considère l’URL de base comme le document. Si le contenu n’existe que derrière des « # états », attendez-vous à une visibilité faible ou inexistante.
Les URL avec hachage (« hash URLs ») sont-elles toujours mauvaises pour le SEO ?
Non. Ils conviennent pour les ancres (jump links), les accordéons et les états d’onglets sur une page qui comporte déjà du HTML indexable. Ils posent problème lorsque des équipes les utilisent comme substitut à de vraies URL.
Puis-je effectuer une redirection 301 d’une URL de fragment vers une URL « propre » ?
Pas directement sur le serveur, car les fragments ne sont pas envoyés dans les requêtes HTTP. Vous devez gérer le problème côté client, mettre à jour les liens internes et, idéalement, mener une démarche de communication pour corriger d’importants backlinks. C’est ici que les migrations deviennent plus compliquées que ce que les équipes imaginent.
Comment auditer les problèmes d’indexation des fragments d’URL (URL fragments) ?
Commencez par utiliser Screaming Frog en mode de rendu JavaScript, puis comparez les URL découvertes avec l’inventaire des routes prévues du site. Ensuite, vérifiez les rapports d’Inspection d’URL et de Performance de la GSC pour voir si seules les URL de base reçoivent des impressions. Ahrefs ou Semrush peuvent aider à confirmer si les pages attendues sont absentes des ensembles d’URL classées.
Par quoi remplacer le routage basé sur le hachage ?
Utilisez un routage basé sur le chemin comme /features ou des URL paramétrées lorsque cette structure a du sens. Associez-le à du SSR, du SSG ou à un pré-rendu fiable afin que le HTML contienne le contenu principal dès le premier chargement. Surfer SEO n’est pas l’outil pour cela : il s’agit d’un problème d’architecture, et non d’une optimisation on-page.

Self-Check

Existe-t-il des vues qui génèrent des revenus et qui ne sont accessibles que derrière les états « # » ou « #! » ?

Googlebot peut-il demander une URL unique pour chaque état important d’une page, sans s’appuyer sur le routage côté client ?

La GSC affiche-t-elle les impressions et les clics pour les URL que l’équipe produit pense exister ?

Avons-nous confondu les ancres dans la page avec des documents indexables ?

Common Mistakes

❌ Traiter les routes avec hachage (hash routes) dans une SPA comme s’il s’agissait de pages indexables autonomes

❌ En supposant qu’une redirection 301 côté serveur puisse capturer les URL avec fragments sans logique côté client

❌ Conserver les sitemaps XML et les liens internes pointant vers des URL de base tout en s’attendant à ce que les états de fragments soient mieux positionnés

❌ Utiliser des captures d’écran rendues comme preuve de l’indexabilité, plutôt que de vérifier les URL explorables dans la Search Console (GSC) et Screaming Frog

All Keywords

indexation des fragments d’URL URL de hachage SEO identifiant de fragment SEO SEO des pages de destination routage par hachage Google ignore les fragments SEO JavaScript URL « exploitables par les robots » Indexation dans Google Search Console Exploration JavaScript avec Screaming Frog rendu côté serveur (SEO) dépréciation du crawling AJAX

Ready to Implement Indexation des fragments d'URL?

Get expert SEO insights and automated optimizations with our platform.

Get Started Free