Checklist SEO 2025 : 55 vérifications indispensables sur une seule page

Vadim Kravcenko
Vadim Kravcenko
· 6 min read

-- Les 55 vérifications ont été validées à partir de la documentation Google actuelle, les changements de la core update de mars 2026 ont été intégrés, et la section sur la préparation à la recherche par IA a été entièrement réécrite pour l’ère post-SGE.

TL;DR : Imprime cette page. Ajoute-la à tes favoris. Passe cette checklist SEO en revue chaque trimestre. 55 vérifications réparties en 6 catégories couvrent tout ce qui compte en SEO en 2026 -- des fondations techniques à la préparation à la recherche par IA. Chaque point t’indique quoi vérifier et avec quel outil le faire. Ce n’est pas de la théorie. C’est la checklist que j’utilise sur chaque site que j’audite.

Astuce d’impression

Cette page a été pensée comme un document de référence. Utilise Ctrl+P (Cmd+P sur Mac) pour l’imprimer -- les tableaux sont formatés pour A4/Letter. Ou laisse-la simplement ouverte dans un onglet permanent de ton navigateur, comme je le fais.

Comment utiliser cette checklist

Chaque vérification suit la même structure : une case à cocher, le nom du point de contrôle, une explication en 1 à 2 phrases sur son importance, et un outil pour le valider. Les coches vertes signifient que tout va bien. Rouge veut dire qu’il y a du travail. Jaune veut dire que ce n’est pas critique, mais qu’il faudra s’en occuper tôt ou tard.

Je te recommande de la passer en revue chaque trimestre. Certains points (comme HTTPS ou robots.txt) se configurent une fois puis ne bougent presque plus. D’autres (comme la fraîcheur du contenu ou les Core Web Vitals) évoluent avec le temps et demandent une attention régulière. Les vérifications sont classées par impact dans chaque catégorie -- commence par les premières.

Si tu ne fais rien d’autre dans cette liste, concentre-toi sur ces cinq points : les vérifications 1 (HTTPS), 6 (LCP), 11 (balises title), 16 (liens internes) et 21 (signaux E-E-A-T). D’après mon expérience sur des centaines de sites audités, ces cinq éléments représentent à eux seuls environ 60% des problèmes de classement que je trouve. Tout le reste compte aussi, mais là, on parle des murs porteurs. Corrige-en un par jour pendant une semaine et tu seras déjà devant la plupart des concurrents qui sont encore en train de faire défiler une liste de 55 points en se demandant par où commencer.

Catégorie 1 : Fondations techniques (10 vérifications)

Ce sont les bases. Si l’un de ces points échoue, le reste ne compte plus -- ton site ne performera pas, même si ton contenu est excellent. J’ai déjà vu de très beaux contenus rester non indexés pendant des mois à cause d’un robots.txt mal configuré. C’est l’équivalent SEO d’écrire un roman puis de l’enfermer dans un tiroir fermé à clé.

VérificationPourquoi c’est importantComment vérifier
1. HTTPS sur toutes les pagesGoogle a confirmé dès 2014 que HTTPS était un signal de classement. Le contenu mixte (mixed content), c’est-à-dire des ressources HTTP sur des pages HTTPS, déclenche des alertes navigateur et abîme la confiance. En 2026, il n’y a plus aucune excuse pour ne pas l’avoir.Lance une analyse du site -- signale toute page servie en HTTP ou chargeant du contenu mixte. Vérifie aussi l’absence d’URL canoniques non HTTPS.
2. robots.txt est accessible et correctUn robots.txt cassé (erreur 500) peut pousser Google à suspendre temporairement l’exploration de tout ton site. Un robots.txt mal configuré peut bloquer des pages que tu veux indexer. Dans les deux cas, c’est catastrophique.Va sur yourdomain.com/robots.txt. Vérifie qu’il renvoie un code 200. Assure-toi qu’il ne bloque pas les fichiers CSS/JS. Utilise le testeur robots.txt de Google dans GSC.
3. Sitemap XML soumis et à jourTon sitemap est le moyen le plus direct d’indiquer à Google quelles sont les pages importantes. Un sitemap obsolète rempli d’URL mortes gaspille le budget d’exploration.Google Search Console -> Sitemaps. Vérifie la date de dernière soumission. Assure-toi qu’il ne contient ni pages noindex ni 404.
4. Les balises canoniques sont correctesDe mauvaises balises canoniques disent à Google d’ignorer la page que tu veux positionner et d’en indexer une autre à la place. Dans la grande majorité des cas, une balise canonique auto-référente est ce qu’il faut.Lance un crawl de ton site. La balise canonique de chaque page doit pointer vers sa propre URL, sauf si tu consolides volontairement des doublons.
5. Pages adaptées au mobileGoogle utilise l’indexation mobile-first -- ta version mobile EST ton site aux yeux de Google. Une page parfaite sur ordinateur mais cassée sur mobile sera classée selon sa version mobile cassée.Google Mobile-Friendly Test. Vérifie aussi manuellement sur de vrais appareils -- les tests automatisés ratent souvent les blocages de défilement, les éléments qui se chevauchent et les zones tactiles trop petites.
6. Vitesse de page : LCP sous 2.5sLe Largest Contentful Paint mesure la vitesse de chargement de ton contenu principal. Seuil Google : sous 2.5s = « bon ». Au-dessus de 4s = « mauvais ». La plupart des sites échouent à cause d’images principales non optimisées ou de JS bloquant le rendu.PageSpeed Insights, onglet Performance de Chrome DevTools, ou l’outil SEOJuice CWV Impact.
7. INP sous 200msInteraction to Next Paint a remplacé FID en mars 2024 et c’est désormais le Core Web Vital de réactivité. 43% des sites échouent encore sur cette métrique en 2026. Elle mesure la vitesse de réponse de ta page aux clics, aux appuis tactiles et aux frappes clavier.Chrome DevTools -> Performance -> vérifie l’INP. PageSpeed Insights affiche les données de terrain. Correctifs : réduire la charge JavaScript sur le thread principal, différer les scripts non critiques.
8. CLS sous 0.1Le Cumulative Layout Shift mesure la stabilité visuelle -- à quel point la page bouge pendant le chargement. Les pubs, les images chargées tardivement et le contenu dynamique sans dimensions réservées sont les coupables habituels.PageSpeed Insights, Lighthouse. Correctifs : définir explicitement width et height sur les images/iframes, éviter d’injecter du contenu au-dessus de la ligne de flottaison après le chargement.
9. Données structurées Schema.org sur les principaux types de pagesLes données structurées aident Google à comprendre ton contenu et permettent les résultats enrichis (étoiles, FAQ, fil d’Ariane, etc.). Les pages avec résultats enrichis obtiennent en moyenne 20-30% de CTR en plus.Google Rich Results Test. Au minimum : Organization (page d’accueil), Article/BlogPosting (blog), Product (e-commerce), FAQ (support), BreadcrumbList (toutes les pages).
10. Budget d’exploration non gaspilléSi tu as 10,000+ pages, le budget d’exploration compte vraiment. Les pages orphelines, la pagination infinie, les URL de session et la navigation à facettes peuvent engloutir énormément de ressources d’exploration.GSC -> Settings -> Crawl stats. Vérifie le nombre de pages explorées par jour. Si ça baisse, audite les pages orphelines et les chaînes de redirection.

Si tu as 10/10 dans la catégorie 1, bravo -- tu es dans le top 20% des sites que j’audite. La plupart des sites ratent 2 à 3 de ces points. Les échecs les plus fréquents, dans l’ordre : sitemaps obsolètes (vérification 3), INP au-dessus de 200ms (vérification 7), et données structurées manquantes (vérification 9). Si ta base technique est solide, tout le reste de cette liste devient beaucoup plus simple. Si elle est cassée, rien d’autre n’a d’importance. J’ai une règle : je ne discute pas de stratégie de contenu avec un client tant que ces 10 points ne sont pas au vert. Ça nous fait gagner du temps à tous les deux.

Catégorie 2 : SEO on-page (10 vérifications)

Le SEO on-page est l’endroit où la plupart des gens commencent -- et où la plupart s’arrêtent. Ces vérifications sont nécessaires, mais pas suffisantes. C’est le minimum syndical, pas l’avantage concurrentiel. Vois ça comme se brosser les dents : indispensable, mais personne n’a jamais gagné un concours de beauté juste parce qu’il avait les dents propres.

VérificationPourquoi c’est importantComment vérifier
11. Balises title uniques sur chaque pageTa balise title est le facteur de classement on-page le plus important. Des titles dupliqués embrouillent Google sur la page à classer. Pas de title du tout, et Google improvise -- et il improvise souvent mal.Lance un crawl. Signale les pages avec titles dupliqués, manquants, ou de plus de 60 caractères (tronqués dans les SERP). L’audit SEOJuice détecte les trois.
12. Meta descriptions sur les pages clésLes meta descriptions n’influencent pas directement le classement, mais elles influencent le CTR -- et ça, oui. Une description convaincante fait la différence entre un clic et un simple passage. Google réécrit environ 62% des meta descriptions, mais en avoir une te donne au moins une chance.Lance un crawl de ton site. Chaque page visant du trafic organique doit avoir une meta description unique de moins de 155 caractères.
13. Une seule balise H1 par page, pertinente pour le mot-cléGoogle utilise la H1 pour comprendre le sujet principal d’une page. Plusieurs H1 diluent ce signal. Pas de H1 du tout, et Google doit deviner le sujet à partir du corps du texte uniquement.Affiche le code source ou utilise un crawler. Une seule H1, proche du haut de page, contenant ton mot-clé principal ou une variante proche.
14. Hiérarchie de titres logique (H1->H2->H3)La structure des titres est une exigence d’accessibilité (WCAG) et un signal SEO. Sauter des niveaux (H1->H3) crée un plan cassé. Google utilise les titres pour comprendre la structure du contenu et extraire des featured snippets.Vérifie l’arborescence HTML. H1 -> H2 -> H3 dans un ordre logique. Pas de H3 directement sous un H1 sans H2 entre les deux.
15. Texte alt sur toutes les images utilesLe texte alt, c’est la manière dont Google « voit » les images. C’est aussi une exigence légale d’accessibilité selon WCAG 2.1 AA et l’European Accessibility Act (obligatoire depuis juin 2025). Pas de texte alt = images invisibles + risque juridique potentiel.Lance un crawl de ton site et filtre les images sans texte alt. Les images décoratives doivent avoir alt="" (vide, pas absent).
16. Liens internes depuis le contenu contextuelLes liens internes distribuent l’autorité et aident Google à découvrir les pages. Les pages sans aucun lien interne (pages orphelines) gaspillent le budget d’exploration et ne se classent jamais. Les liens contextuels dans le corps du contenu pèsent plus lourd que ceux du menu ou du footer.SEOJuice Internal Link Finder. Chaque page devrait recevoir 3+ liens internes depuis des contenus pertinents.
17. Mot-clé principal dans les 100 premiers motsGoogle accorde plus de poids aux termes qui apparaissent tôt dans le contenu. Ça ne veut pas dire bourrer de mots-clés -- ça veut dire aller droit au but. Si ton mot-clé principal n’apparaît qu’au paragraphe 4, ton introduction est trop longue.Vérification manuelle sur tes 20 pages principales. Ouvre chaque page, fais Ctrl+F sur ton mot-clé cible, et vérifie qu’il apparaît dans le premier ou le deuxième paragraphe.
18. Profondeur de contenu suffisanteLes pages de moins de 300 mots se classent rarement sur des requêtes concurrentielles. Google a besoin de suffisamment de contenu pour comprendre le sujet de la page. Le thin content est l’une des raisons les plus fréquentes pour lesquelles des pages sont explorées mais non indexées.Lance un crawl de ton site, exporte les volumes de mots. Signale les pages sous 300 mots qui ciblent des mots-clés organiques. Exceptions : pages d’outils, calculateurs, contenus interactifs.
19. Structure d’URL propreLes URL doivent être lisibles, descriptives et utiliser des tirets comme séparateurs de mots. Pas d’ID de session, pas de paramètres excessifs, pas de chaînes de caractères aléatoires. Les URL propres obtiennent un meilleur CTR dans les SERP et sont plus faciles à partager.Examine tes modèles d’URL. Format : /categorie/slug-descriptif/. À éviter : /p?id=38472&sess=abc.
20. Balises Open Graph et Twitter CardCes balises contrôlent l’apparence de tes pages lorsqu’elles sont partagées sur les réseaux sociaux et dans les apps de messagerie. Ce n’est pas un facteur de classement direct, mais les partages sociaux génèrent du trafic et des backlinks, qui eux influencent le classement.Utilise Facebook Sharing Debugger et Twitter Card Validator. Au minimum : og:title, og:description, og:image sur chaque page.

Catégorie 3 : Qualité du contenu (10 vérifications)

La core update de Google de mars 2026 a encore renforcé le poids des signaux E-E-A-T. La qualité du contenu n’est pas optionnelle -- c’est le principal facteur qui différencie les sites qui progressent de ceux qui stagnent. C’est aussi la catégorie où je vois le plus grand écart entre ce que les gens pensent de la qualité de leur contenu et la réalité. Tout le monde est persuadé que son contenu est « de qualité ». Passe ces vérifications avant de valider cette croyance.

"Les sites avec une forte qualité de contenu, une vraie autorité thématique et un SEO technique propre se stabilisent généralement vite après les mises à jour d’algorithme. Les sites les plus durement touchés sont ceux qui publient du contenu sans expertise réelle ni expérience de première main."

VérificationPourquoi c’est importantComment vérifier
21. Présence de signaux E-E-A-TExperience, Expertise, Authoritativeness, Trustworthiness. Les quality raters de Google les évaluent explicitement. En 2026, la composante « Experience » (montrer une connaissance de première main) pèse plus lourd que jamais -- les études montrent que 73% des contenus les mieux classés démontrent un vrai savoir-faire.Vérifie : bios d’auteur avec références, anecdotes personnelles/cas pratiques, données originales, citations de sources faisant autorité. Si tu ne peux pas identifier qui a écrit le contenu ni pourquoi cette personne est qualifiée, tu as un problème d’E-E-A-T.
22. Signaux de fraîcheur du contenuGoogle utilise les dates de dernière modification et les changements de contenu pour évaluer la fraîcheur. Un contenu périmé avec des statistiques obsolètes, des liens cassés ou des références à « 2023 » dans un « guide 2026 » envoie un signal de négligence. La décroissance du contenu est réelle -- les pages perdent du trafic avec le temps si elles ne sont pas mises à jour.Examine tes 50 pages principales. Cherche les dates obsolètes, statistiques expirées, liens morts et références à des années passées. Mets à jour et republie avec une note visible « Mis à jour le [date] ».
23. Aucun problème de contenu dupliquéLe contenu dupliqué répartit les signaux de classement entre deux URL -- aucune des deux ne se classe aussi bien qu’une page consolidée. Causes fréquentes : www vs non-www, HTTP vs HTTPS, variantes avec ou sans slash final, contenu paginé.Lance site:yourdomain.com "phrase exacte de la page" dans Google. Si plusieurs URL apparaissent, consolide avec des redirections 301 ou des balises canoniques.
24. Profondeur du contenu supérieure à celle des concurrentsSur des mots-clés concurrentiels, ton contenu doit être plus complet que ce qui se classe déjà. Pas forcément plus long -- plus utile. Couvre les sous-sujets que les meilleurs résultats oublient. Réponds aux questions de suivi qu’ils ne traitent pas.Recherche ton mot-clé cible. Lis les 3 premiers résultats. Demande-toi : quelles questions laissent-ils sans réponse ? Qu’ai-je appris qu’ils n’ont pas couvert ? Comble ces lacunes.
25. Mise en forme du contenu correcteLes murs de texte ne se classent pas en 2026. Les algorithmes de Google comme les utilisateurs préfèrent les contenus faciles à parcourir -- sous-titres, listes, tableaux, paragraphes courts. Les pages bien formatées ont des taux de rebond 40% plus faibles.Vérification visuelle : peux-tu parcourir la page et comprendre les points clés sans lire chaque mot ? Si non, ajoute des sous-titres, coupe les longs paragraphes, et ajoute des listes à puces pour les points importants.
26. Présence d’éléments multimédiasLes pages avec images, vidéos ou éléments interactifs ont tendance à mieux se classer -- elles signalent un contenu plus complet et améliorent l’engagement utilisateur. Google indexe aussi les images séparément, ce qui crée des points d’entrée supplémentaires vers ton contenu.Vérifie tes principales landing pages. Au minimum : 1 image pertinente tous les 500 mots. Les images personnalisées valent mieux que les photos de stock. Intègre des vidéos quand c’est pertinent.
27. Attribution de l’auteur avec bioLes guidelines qualité de Google mentionnent explicitement l’auteur comme signal E-E-A-T. Un contenu anonyme n’a aucun signal de crédibilité. Des auteurs nommés avec bio, références et profils sociaux liés montrent qu’il y a une vraie responsabilité éditoriale.Chaque article devrait afficher un nom d’auteur visible pointant vers une page auteur avec bio, photo, références et liens vers d’autres contenus. Utilise le balisage Person sur les pages auteur.
28. Sources et citations inclusesLier vers des sources faisant autorité démontre la qualité de la recherche et renforce la composante « Trustworthiness » de l’E-E-A-T. Les pages qui sourcent leurs affirmations ont plus de chances d’être citées par les moteurs de recherche IA.Relis le contenu à la recherche d’affirmations non sourcées, surtout les statistiques et les citations. Chaque donnée doit pointer vers sa source d’origine. Évite de lier vers des concurrents -- cite la recherche originale à la place.
29. Dates de mise à jour visiblesLes utilisateurs comme les moteurs de recherche utilisent les dates pour évaluer la pertinence. Une page sans date pourrait avoir 5 ans, personne n’en sait rien. Ajouter une date visible réduit l’incertitude et aide Google à comprendre que le contenu est maintenu.Vérifie tes templates de contenu. Chaque article/guide devrait afficher une date « Dernière mise à jour ». Utilise dateModified dans le balisage Article pour communiquer cette information à Google.
30. Aucune page thin content ciblant des mots-clésLes pages de moins de 300 mots qui ciblent des mots-clés concurrentiels sont presque toujours une perte de temps. Elles diluent ton autorité thématique et se classent rarement. Soit tu les développes en ressources complètes, soit tu les supprimes et rediriges vers un contenu connexe.Lance un crawl de ton site, exporte le nombre de mots et les mots-clés ciblés. Toute page sous 300 mots avec un mot-clé cible devrait être enrichie ou consolidée.

Petite parenthèse sur les vérifications 21-30 : je dirais que si ta base technique est solide (catégorie 1 toute au vert) et que la qualité de ton contenu est réellement forte (catégorie 3 majoritairement au vert), tu peux t’en sortir avec des performances moyennes sur les autres catégories. La qualité du contenu est l’actif qui compose dans le temps. Tout le reste est l’infrastructure qui permet à cet actif de produire ses effets. Corrige d’abord l’infrastructure parce que c’est plus rapide, mais investis dans la qualité du contenu parce que c’est ça qui gagne vraiment.

Catégorie 4 : Profil de liens (10 vérifications)

Les liens restent l’épine dorsale de l’algorithme de classement de Google. Les liens internes, tu les contrôles totalement. Les liens externes, tu les gagnes. Les deux demandent une attention régulière. Je vais dire quelque chose d’un peu controversé ici : si ton temps est limité, consacre 80% de ton effort sur les liens au maillage interne (vérifications 31-34, 37-38) et 20% au suivi des liens externes (vérifications 35, 40). Les liens internes sont le levier le plus sous-estimé en SEO. Tu les contrôles entièrement, tu peux les corriger aujourd’hui, et j’ai déjà vu des améliorations de maillage interne faire passer des pages de la position 15 à la position 6. Le netlinking externe est important, mais lent, coûteux et en grande partie hors de ton contrôle. Ne l’ignore pas, mais ne le laisse pas non plus te paralyser.

VérificationPourquoi c’est importantComment vérifier
31. Aucune page orphelineLes pages sans aucun lien interne ne peuvent pas être découvertes par Google via l’exploration. Elles gaspillent le budget d’exploration et ne se classent jamais. Les recherches de Botify montrent que les pages orphelines consomment en moyenne 26% du budget d’exploration. Voir notre guide complet sur les pages orphelines.Lance un crawl de ton site et compare avec le sitemap. Toute URL présente dans le sitemap mais absente du crawl est probablement orpheline. Corrige en ajoutant 3+ liens internes depuis des pages pertinentes.
32. Diversité des textes d’ancreSi 90% de tes liens internes utilisent le même texte d’ancre, ça paraît manipulateur. Un texte d’ancre naturel varie -- exact match, partial match, marque, générique (« lire plus »), et URL nue. Vise un maximum de 30% pour un même modèle d’ancre vers une page.Anchor Text Diversity tool. Exporte les liens internes par page et vérifie la distribution des textes d’ancre.
33. Aucun lien interne casséLes liens internes cassés, c’est de l’autorité gaspillée et des parcours utilisateurs brisés. Chaque lien en 404 est de l’autorité qui s’évapore au lieu d’aller vers une page utile.SEOJuice Broken Link Checker ou lance un crawl complet et filtre les codes de réponse 4xx sur les URL internes.
34. Aucune chaîne de redirectionUne chaîne de redirection, c’est quand URL A -> URL B -> URL C. Chaque saut fait perdre un peu d’autorité (Google dit que non, mais les données de test montrent régulièrement que si). Les chaînes ralentissent aussi le chargement. Longueur maximale acceptable : 1 redirection.Lance un crawl de ton site. Filtre les chaînes de redirection (toute URL qui fait une 301 vers une autre 301). Corrige en mettant à jour le lien d’origine pour qu’il pointe directement vers la destination finale.
35. Audit de qualité des liens externesLier vers des sites externes spammy ou morts abîme ton score de confiance. Les guidelines de Google mentionnent qu’un site est aussi jugé par la compagnie qu’il fréquente. Passe en revue tes liens sortants -- chaque lien externe doit pointer vers une page légitime et active.Exporte tous les liens externes depuis un crawl. Vérifie : liens morts (404), liens vers des domaines spammy, liens vers des sites avec alertes de sécurité. Supprime ou remplace si nécessaire.
36. Nofollow utilisé correctementUtilise rel="nofollow" pour les liens payants, le contenu généré par les utilisateurs (commentaires, forums), et les liens que tu ne veux pas cautionner. Ne mets pas tes propres liens internes en nofollow -- ça gaspille l’autorité. Ne mets pas non plus tous les liens externes en nofollow -- ça paraît artificiel.Lance un crawl de ton site et audite l’usage du nofollow. Tous les liens internes devraient être en dofollow. Les liens éditoriaux externes devraient être en dofollow. Seuls les liens sponsorisés/UGC devraient être en nofollow.
37. Profondeur de clic inférieure à 4Chaque page de ton site devrait être accessible en 3 à 4 clics maximum depuis la page d’accueil. Les pages plus profondes sont explorées moins souvent et reçoivent moins d’autorité. C’est particulièrement critique en e-commerce avec des structures de catégories profondes.Lance un crawl de ton site et vérifie la métrique de « crawl depth ». Toute page importante à une profondeur de 5+ a besoin d’un meilleur maillage interne ou d’une refonte de la navigation.
38. Pages hub pour les sujets clésLes pages hub (ou pillar pages) lient vers tout le contenu lié à un sujet et signalent une autorité thématique à Google. Sans elles, ton contenu sur un sujet est dispersé sur des pages déconnectées.Pour chaque grand sujet couvert par ton site, vérifie que tu as une page hub complète qui renvoie vers chaque article lié. Les articles liés doivent aussi faire un lien retour vers le hub.
39. Liens de footer/navigation utiles, pas spammyMettre en footer un lien vers chaque page du site dilue l’autorité et ressemble à du spam. La navigation doit contenir tes pages les plus importantes -- pas 200 liens vers chaque catégorie et sous-catégorie.Compte les liens dans ton footer et ta navigation. Si l’un des deux dépasse 50 liens, allège-le. Garde seulement les pages de premier niveau et les ressources les plus importantes.
40. Profil de backlinks surveilléDes backlinks toxiques provenant de domaines spammy peuvent déclencher des pénalités algorithmiques. Des backlinks perdus depuis des sites de valeur signifient une autorité en baisse. Tu dois savoir quand l’un ou l’autre se produit.Mets en place un suivi des backlinks. Vérifie chaque mois : nouveaux backlinks spam (désavoue s’ils sont clairement manipulateurs), liens perdus depuis des domaines à forte autorité (essaie de les récupérer), et tendance globale des domaines référents.

Catégorie 5 : Préparation à l’IA et à la recherche (10 vérifications)

C’est la section qui n’existait pas il y a deux ans et qui sera probablement la plus importante dans deux ans. Les moteurs de recherche IA (ChatGPT, Perplexity, Google AI Overviews) sont le canal de découverte qui croît le plus vite en 2026, et s’optimiser pour eux demande des tactiques différentes du SEO traditionnel. Je suis moins certain des tactiques précises de cette section que de n’importe quelle autre -- le paysage change tous les mois, et ce qui marche aujourd’hui ne marchera peut-être plus dans six mois. Mais la direction générale me semble solide.

"Le changement fondamental en 2026, c’est que la découverte se fait sur des plateformes verticales et des answer engines. Ta stratégie de SEO technique doit maintenant prendre en compte la recherche décentralisée -- la réalité selon laquelle la découverte se fait sur Amazon, YouTube, ChatGPT et Perplexity, pas seulement sur Google."

VérificationPourquoi c’est importantComment vérifier
41. Fichier llms.txt en placellms.txt est un fichier markdown à la racine de ton domaine qui liste ton contenu le plus important pour les systèmes IA. Vois-le comme un sitemap pour les LLM. Ce n’est pas encore un standard officiel, mais Claude et Perplexity s’y réfèrent. Peu d’effort, potentiel intéressant.Vérifie yourdomain.com/llms.txt. S’il manque, crée-en un listant tes pages clés, leurs sujets et leur objectif. Voir notre générateur llms.txt.
42. Accès des crawlers IA configuréLes grandes entreprises IA ont leurs propres crawlers : GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot. Ton robots.txt devrait les autoriser explicitement si tu veux apparaître dans les réponses IA. Si tu les bloques, tu disparais de ce canal.Vérifie les directives des crawlers IA dans robots.txt. Décide section par section : autoriser les crawlers IA sur le blog/les ressources, éventuellement les bloquer sur le contenu propriétaire.
43. Balisage FAQ implémentéLe balisage FAQ est l’un des moyens les plus efficaces pour être cité dans les réponses IA. Les modèles IA analysent les données FAQ structurées pour extraire des réponses directes. Les pages avec FAQ schema ont beaucoup plus de chances d’apparaître dans Google AI Overviews.Google Rich Results Test. Ajoute le balisage FAQPage à toute page avec une section questions/réponses. Assure-toi que le balisage correspond exactement au contenu visible -- les écarts peuvent déclencher des actions manuelles.
44. Blocs de contenu citables et concisLes moteurs de recherche IA citent le contenu en extrayant de courts passages factuels. Si ton contenu est écrit en longs paragraphes qui tournent autour du pot, les modèles IA ne peuvent pas facilement en extraire une citation. Écris avec des formulations claires, dignes d’être citées.Examine tes pages principales. Peux-tu identifier 3 à 5 phrases capables de tenir seules comme réponse à une requête ? Si non, ajoute des phrases de synthèse claires après chaque section.
45. Clarté des entités et désambiguïsationLes modèles IA doivent comprendre de quelles entités (personnes, entreprises, produits) parle ton contenu. Les références ambiguës embrouillent à la fois le Knowledge Graph de Google et l’analyse des LLM. Sois explicite sur qui et quoi tu évoques.Vérifie : le nom de ta marque est-il clairement défini sur ta page About ? Les pages produit utilisent-elles le nom complet du produit ? Les personnes sont-elles mentionnées avec leur nom complet et du contexte ? Utilise les balisages Organization et Person.
46. Éléments d’optimisation GEOLe Generative Engine Optimization (GEO) vise à être cité par les answer engines IA. Éléments clés : statistiques, citations, résumés citables, données structurées et définitions d’entités claires. Les pages optimisées pour le GEO obtiennent 30-40% de citations IA en plus.Pour chaque page prioritaire, assure-toi d’avoir : au moins 2 données chiffrées avec citations, un résumé clair dans le premier paragraphe, des données structurées, et des phrases de sujet qui répondent directement aux questions fréquentes.
47. Suivi de visibilité IA actifTu ne peux pas améliorer ce que tu ne mesures pas. Suis la manière dont ta marque apparaît dans ChatGPT, Perplexity et Google AI Overviews sur tes requêtes clés. Le sentiment compte aussi -- les moteurs IA te citent-ils positivement ou négativement ?Interroge manuellement ChatGPT et Perplexity avec tes 10 principaux mots-clés. Note : es-tu cité ? L’information est-elle exacte ? Le sentiment est-il positif ? Ou utilise SEOJuice AI visibility monitoring pour un suivi automatisé.
48. Mentions de marque sur les plateformes IALes modèles IA construisent leur compréhension des marques à partir du contenu du web. Si ta marque n’est pas mentionnée sur des sites faisant autorité, les modèles IA ne savent pas que tu existes. RP, guest posts et couverture sectorielle influencent directement ta visibilité IA.Recherche le nom de ta marque dans ChatGPT et Perplexity. La réponse est-elle exacte ? Complète ? Si les modèles IA ont des informations limitées ou erronées sur ta marque, tu as besoin de plus de contenu d’autorité sur ton entreprise sur des sites externes.
49. Paragraphes de réponse directe dans les 100 premiers motsGoogle AI Overviews comme les autres modèles IA extraient de préférence les réponses au début du contenu. Si ta réponse est enterrée au paragraphe 7, un concurrent qui répond au paragraphe 1 sera cité à ta place.Examine tes pages principales. Le premier paragraphe contient-il une réponse claire et directe à la requête ciblée ? Si non, ajoute un TL;DR ou une phrase de synthèse en haut.
50. Balisage complet pour l’analyse IAAu-delà du balisage de base, les moteurs de recherche IA utilisent les données structurées pour comprendre les relations entre entités. Article schema avec auteur, dateModified et publisher. HowTo schema pour les tutoriels. Product schema avec offres, avis et spécifications.Lance Rich Results Test sur chaque type de page. Minimum pour 2026 : Article (avec author + dateModified), Organization (page d’accueil), BreadcrumbList, FAQ (quand applicable), HowTo (tutoriels), Product (e-commerce).

Évaluation honnête de la catégorie 5 : je suis moins sûr des vérifications 41-50 que de tout le reste de cette liste. Le paysage de la recherche IA bouge tellement vite que certaines de ces recommandations seront peut-être dépassées quand tu liras ces lignes. llms.txt (vérification 41) deviendra peut-être un standard officiel, ou disparaîtra peut-être dans l’oubli. L’optimisation GEO (vérification 46) deviendra peut-être la stratégie dominante, ou sera peut-être absorbée dans la pratique SEO classique. Ce dont je suis sûr : le pari directionnel est bon. La recherche IA progresse, ton contenu doit être lisible par les machines, et les sites qui investissent là-dessus maintenant auront une longueur d’avance quand la poussière retombera. Mais ne mise pas toute la ferme sur une seule tactique de cette catégorie. Répartis ton effort sur les 10 vérifications plutôt que de tout mettre sur une seule.

Catégorie 6 : Nouveau en 2026 -- Vérifications bonus (5 vérifications)

Ce sont les vérifications qui n’étaient sur la liste de personne il y a deux ans. Elles reflètent la réalité du paysage post-core-update de mars 2026. Si tu es en avance sur ces points, tu as un vrai avantage concurrentiel. Si tu es en retard, pas de panique -- la plupart de tes concurrents n’ont pas commencé non plus. La fenêtre d’opportunité est encore ouverte, mais elle se referme. Vois cette catégorie comme des points bonus. Les catégories 1-3, c’est l’examen. La catégorie 4, c’est la dissertation. La catégorie 5, c’est la question bonus. La catégorie 6, c’est la partie « impressionner le prof ». Commence par l’examen.

VérificationPourquoi c’est importantComment vérifier
51. Métrique INP optimisée (pas seulement mesurée)INP est devenu un Core Web Vital en mars 2024, mais 43% des sites échouent encore au seuil de 200ms en 2026. La plupart l’ont mesuré sans le corriger. Principaux coupables : frameworks JavaScript lourds, scripts tiers (analytics, widgets de chat, scripts publicitaires) et gestionnaires d’événements non optimisés. Le simple fait de différer le JS non critique réduit l’INP de 30-50% sur la plupart des sites.Chrome DevTools -> onglet Performance -> vérifie l’INP. Teste aussi avec le Chrome User Experience Report (CrUX) pour les données de terrain réelles. PageSpeed Insights affiche à la fois l’INP labo et terrain.
52. Conformité à l’European Accessibility Act (EAA)L’EAA est entré en vigueur le 28 juin 2025, imposant la conformité WCAG 2.1 AA à tous les services numériques vendus dans l’UE. Les amendes pour non-conformité peuvent atteindre 500,000 euros. Au-delà du risque juridique, les sites accessibles se classent mieux -- corriger la hiérarchie des titres aide le SEO, le texte alt crée plus de contenu indexable, et la navigation clavier améliore l’exploration.Lance un audit WCAG 2.1 AA. Zones clés : contraste des couleurs (minimum 4.5:1), texte alt sur les images, labels de formulaires, hiérarchie des titres, navigation clavier, labels ARIA. Voir notre accessibility monitoring.
53. Politique de contenu IA documentéeLa position de Google sur le contenu généré par IA est claire : c’est la qualité qui compte, pas l’origine. Mais Google devient meilleur pour détecter le contenu IA de faible valeur. Aie une politique explicite : l’IA peut produire un brouillon, les humains doivent éditer et ajouter leur expertise. Documente ça pour ton équipe. Si Google examine ton contenu (et oui, ça arrive, manuellement, surtout sur les sujets YMYL), un processus clair te protège.Vérification interne : ton équipe a-t-elle des guidelines sur l’usage du contenu IA ? Les contenus assistés par IA sont-ils relus par des experts métier ? Peux-tu démontrer une expérience de première main dans ton contenu ?
54. Optimisation SGE/AIOLes Google AI Overviews (anciennement SGE) apparaissent au-dessus des résultats traditionnels pour une part croissante des requêtes. Être cité dans les AI Overviews demande : un contenu clair et factuel dans le premier paragraphe, des données structurées, et une couverture de sous-sujets que les pages concurrentes oublient. Les pages citées dans les AI Overviews voient leur CTR augmenter même quand les positions traditionnelles bougent.Recherche tes 20 principaux mots-clés dans Google. Note lesquels déclenchent des AI Overviews. Pour ces requêtes, vérifie : ton contenu est-il cité ? Si non, analyse quelles sources sont citées et ce qu’elles ont que tu n’as pas. En général : meilleure structure, données plus spécifiques, ou formatage plus clair.
55. Préparation à la recherche multimodaleGoogle Lens, la recherche visuelle et la recherche vocale sont des canaux en croissance. Les images ont besoin d’un texte alt correct, de noms de fichiers descriptifs et d’un contexte autour. Les contenus vidéo devraient avoir des transcriptions et du balisage. Les requêtes vocales sont plus longues et plus conversationnelles -- ta section FAQ devrait utiliser des questions formulées naturellement.Vérifie : tes images ont-elles des noms de fichiers descriptifs (pas IMG_4392.jpg) ? Tes images produit sont-elles trouvables dans Google Lens ? Les pages vidéo ont-elles des transcriptions ? Les sections FAQ utilisent-elles des formulations de questions conversationnelles ?

Le système de score : où te situes-tu ?

Passe en revue les 55 vérifications et note-toi :

ScoreÉvaluationCe que ça signifie
50-55ExcellentTon SEO est au meilleur niveau. Concentre-toi sur la qualité du contenu et la différenciation concurrentielle.
40-49BonBase solide. Corrige les écarts -- ils se trouvent probablement dans la préparation à l’IA et le profil de liens.
30-39À améliorerTu laisses passer des opportunités importantes. Priorise d’abord les fondations techniques et les vérifications on-page.
20-29PréoccupantProblèmes majeurs dans plusieurs catégories. Commence par la catégorie 1 et avance méthodiquement.
Under 20CritiqueTon site a des problèmes fondamentaux. Envisage un audit SEO complet avant toute autre chose.

La plupart des sites que j’audite obtiennent entre 28 et 42. Les vérifications de fondation technique sont généralement correctes (tout le monde a HTTPS maintenant). Les plus gros écarts apparaissent dans la qualité du contenu et la préparation à l’IA. Rien de surprenant -- ce sont les catégories qui ont le plus changé au cours des 18 derniers mois.

Comment prioriser : le 80/20 de cette liste

Tu ne peux pas tout corriger d’un coup. Et honnêtement, essayer de le faire est une erreur que j’ai moi-même déjà faite -- passer une semaine à cocher les 55 cases au lieu de corriger les trois qui auraient vraiment déplacé l’aiguille. Voilà comment je priorise aujourd’hui quand j’analyse un site qui échoue à 20+ vérifications :

Semaine 1 : corrige tout ce qui bloque l’indexation. Vérifications 1-4 (HTTPS, robots.txt, sitemap, balises canoniques). Si ces points sont faux, rien d’autre ne compte parce que Google ne peut pas voir ton site. J’ai déjà passé deux jours à enquêter sur une baisse de trafic de 40% chez un client, avant de découvrir que son développeur avait accidentellement ajouté un Disallow: / dans robots.txt pendant un déploiement de staging. Deux minutes pour corriger. Deux semaines de trafic perdu.

Semaine 2 : corrige les Core Web Vitals. Vérifications 6-8 (LCP, INP, CLS). Elles affectent toutes les pages de ton site en même temps. Une seule correction (comme l’optimisation des images) peut améliorer des centaines de pages d’un coup.

Semaine 3-4 : corrige les essentiels on-page. Vérifications 11-16 (titles, metas, titres, texte alt, liens internes). Ce sont les points avec l’impact le plus direct sur les classements par heure de travail investie.

Mois 2 : traite la qualité du contenu. Vérifications 21-30. C’est là que se trouve le vrai avantage concurrentiel. Meilleur contenu + meilleurs signaux E-E-A-T = classements durables que les mises à jour d’algorithme secouent beaucoup moins.

Mois 3+ : construis la préparation à l’IA. Vérifications 41-55. C’est la couche de future-proofing. Commence par llms.txt (5 minutes) et le balisage FAQ (1 heure par page), puis avance vers une optimisation GEO plus complète.

Questions fréquentes

À quelle fréquence devrais-je passer cette checklist ?

Chaque trimestre est le bon rythme. Les vérifications de fondation technique (catégorie 1) n’ont besoin d’être revues qu’après des déploiements ou de gros changements. Les vérifications de qualité du contenu et de préparation à l’IA gagnent à être revues tous les trimestres parce que le paysage évolue vite -- ce qui était une bonne pratique il y a 6 mois est peut-être devenu le strict minimum aujourd’hui.

Faut-il réussir les 55 vérifications pour bien se classer ?

Non. Personne ne réussit les 55. Les sites qui se classent #1 sur des requêtes concurrentielles excellent généralement dans les catégories 1-3 (technique, on-page, contenu) et sont solides dans au moins une des catégories restantes. Les scores parfaits n’existent pas dans le monde réel -- ce qui compte, c’est d’être meilleur que la personne qui occupe actuellement la position que tu veux.

Cette checklist est-elle différente pour un site e-commerce par rapport à un site de contenu ?

Les vérifications sont les mêmes ; ce sont les priorités qui changent. Les sites e-commerce devraient donner plus de poids à la catégorie 1 (technique) et à la catégorie 4 (profil de liens) -- navigation à facettes, budget d’exploration et maillage interne sont décisifs pour le SEO d’un catalogue produit. Les sites de contenu devraient davantage pondérer la catégorie 3 (qualité du contenu) et la catégorie 5 (préparation à l’IA) -- E-E-A-T et optimisation pour les citations IA sont aujourd’hui la frontière concurrentielle.

Qu’est-ce qui a changé par rapport à la version 2025 de cette checklist ?

Cinq grands changements : (1) INP est maintenant la métrique principale de réactivité, à la place de FID. (2) La conformité EAA est désormais légalement obligatoire, plus optionnelle. (3) La préparation à l’IA est passée d’un « nice to have » à une catégorie complète de 10 vérifications. (4) llms.txt est maintenant une vérification recommandée. (5) La section qualité du contenu met désormais fortement l’accent sur l’expérience de première main plutôt que sur des signaux d’autorité génériques, dans la lignée des priorités de la core update de Google de mars 2026.

Quel est le lien avec l’outil d’audit SEOJuice ?

Notre outil gratuit d’audit SEO automatise environ 30 de ces 55 vérifications -- principalement les fondations techniques, le SEO on-page et le profil de liens. Les vérifications de qualité du contenu et de préparation à l’IA demandent encore un jugement humain, c’est pourquoi elles figurent dans cette checklist plutôt que d’être entièrement automatisées.

En bref

Le SEO en 2026 n’est pas plus difficile qu’en 2024. Il est simplement plus large. Tu n’optimises plus pour un seul moteur de recherche -- tu optimises pour Google, pour AI Overviews, pour ChatGPT, pour Perplexity, pour Google Lens, pour les assistants vocaux. Chacun a des exigences légèrement différentes, mais tous récompensent la même base : des sites techniquement solides avec un contenu réellement utile, bien structuré, créé par des gens qui savent de quoi ils parlent.

Cette checklist couvre tout ça. Passe-la en revue. Corrige ce qui ne va pas. Reprends-la au trimestre suivant. C’est toute la stratégie.

Pas de raccourcis. Pas de hacks. Juste une checklist et la discipline de la suivre. (Et peut-être un café. La liste est longue.)

Infographie d’une checklist d’audit SEO couvrant les vérifications techniques, on-page, contenu et profil de liens
Une checklist visuelle d’audit SEO. Notre version en 55 vérifications ci-dessus va encore plus loin. Source : iMark Infotech
SEOJuice
Stay visible everywhere
Get discovered across Google and AI platforms with research-based optimizations.
Works with any CMS
Automated Internal Links
On-Page SEO Optimizations
Get Started Free

no credit card required

More articles

No related articles found.