Les 7 erreurs SEO les plus courantes chez les e-commerçants (et leurs solutions)
Maintenir un site de e-commerce visible sans accumuler les erreurs de SEO est une gageure. Mais si les erreurs arrivent vite, quelques bonnes pratiques suffisent pour les corriger et les prévenir.
Vendre sur Internet, c'est travailler main dans la main avec les moteurs de recherche. Les robots doivent comprendre l'offre du e-commerçant, ses évolutions en temps réel et s'assurer que l'expérience des utilisateurs sur leur site sera bonne. La mission est simple, en théorie. Mais en pratique, le terrain est fertile pour les erreurs. Voici les sept erreurs SEO les plus courantes chez les e-commerçants français, solutions à l'appui.
Contenu dupliqué
Risque : Les moteurs de recherche, par définition, détestent le contenu dupliqué qui les empêche de comprendre comment indexer précisément les pages concernées dans son index. "Les robots de crawl ne savent plus quelle page prioriser et risquent de mal les référencer", remarque Louis Chevant, fondateur de l'agence Smartkeyword. En termes de linking, il ajoute qu'"il y a une déperdition : si dix liens pointent vers deux pages identiques, c'est moins valorisant que s'ils pointent tous vers une seule page au contenu unique".
Détection et outils : Pour retrouver manuellement le contenu dupliqué, il suffit de prendre un court extrait de la page et de le rechercher entre guillemets sur Google ("votre recherche") pour voir s'il apparaît plusieurs fois. "Un logiciel comme "Killer duplicate" pousse les tests plus loin en automatisant la vérification", souligne Aurélien Bardon, fondateur de l'agence Aseox.
Solution : Il faut soit réécrire ou supprimer le contenu de la page en double, soit désindexer via une canonical la page qui a le moins vocation à se référencer.
Chargement trop lent de la page
Risque : Le temps de chargement est un critère de classement pour Google, notamment depuis le Speed Update en juillet 2018, avec la pénalisation des sites trop lents sur mobile.
Détection et outils : Gatien Aujay, responsable SEO chez ManoMano énumère plusieurs outils disponibles pour monitorer le temps de chargement :
- Google Search Console
- Google PageSpeed Insight (API disponible pour automatiser les tests)
- Google Lighthouse (extension navigateur)
- WebPageTest
- Logs serveurs apache/nginx
- Outils en ligne comme Dareboost ou GTmetrix
Et les principales métriques à suivre :
- Time to First Byte - TTFB pour le temps de réponse en sortie de serveur
- First Content Paint - FCP (début du rendu de la page pour l'utilisateur)
- First Input Delay FID (temps avant de pouvoir interagir sur la page)
- Google PageSpeed score qui fait un mix de ces KPIs
- Speed Index (score évaluant la rapidité d'affichage des éléments au-dessus de la ligne de flottaison)
Solutions : Le responsable SEO de ManoMano considère comme prioritaire de "sensibiliser les équipes techniques aux enjeux UX et SEO ainsi qu'aux bonnes pratiques, car c'est un sujet de fond à infuser à tous les niveaux". En effet, les axes d'optimisation sont nombreux :
- amélioration du temps de réponse serveurs
- optimisation du code Back (optimisation des requêtes BDD par exemple)
- compression des ressources (fichiers, code, médias)
- optimisation du chargement des ressources (lazy-loading, chargement asynchrone, gestion des tags analytics)
- gestion du cache
L'enjeu est donc de déterminer quelle est la priorité à travailler et les KPI associés. En cas d'augmentation brutale du temps de chargement, les principales causes peuvent être la mise en production d'une nouvelle fonctionnalité, des problèmes côté hébergeur ou CDN (migration, maintenance, attaque externe, etc.) ou encore une lenteur d'accès aux bases de données.
Le bot n'a pas pu crawler la page
Risque : Si GoogleBot ne peut pas crawler une URL alors elle ne pourra jamais être indexée. "Si l'URL générait un trafic important, alors après avoir échoué sur plusieurs crawls, Google va dégrader le positionnement... souvent très fortement", explique le fondateur d'Aseox.
Détection : La commande site:exempledomaine permet d'obtenir un échantillon d'URL indexées. Rechercher l'URL dans Google permet aussi de tester son indexation. Si une URL est indexée, c'est qu'elle est crawlée. Pour vérifier l'aptitude d'une URL au crawl, le mieux est encore d'en exécuter un avec le googleBot, option proposée par Screaming Frog.
Solution : "Pour trouver les solutions, il faut déterminer les causes", expose Aurélien Bardon. Elles peuvent être volontaires, comme un crawl bloqué dans le robots.txt (Disallow:/) ou par IP. Il peut aussi s'agit d'erreurs : chargement trop lent, page orpheline (non inclue dans le maillage interne du site), problèmes de crawl liés au Javascript…
Outils :
- Un crawler type Oncrawl, Botify, Screaming...
- Monitoring de son robots.txt via un outil type Oseox Monitoring, Robotto
- Un outil d'analyse de logs de type Oncrawl, Botify, Seolyzer...
Erreurs 4XX
Risques : Les erreurs 4XX sont des erreurs rencontrées par les utilisateurs ou par Googlebot sur des pages qui généralement n'existent pas ou plus. La plus connue étant la 404 (not found).
Certaines sont légitimes car elles concernent des pages qui ne sont pas censées exister dans la structure du site. "Mais il faut monitorer les pages censées répondre", précise Gatien Aujay. Google finit en effet par déclasser une page qui reste trop longtemps en 4XX. Enfin, le responsable SEO de ManoMano pointe une exception : "le code 410 (gone), qui permet de signaler à Google la mise en erreur volontaire d'une page qui n'existe pas ou plus. Pratique pour accélérer une désindexation".
Détection : Via l'analyse des logs serveur apache/nginx, les erreurs d'exploitation dans la Search Console (erreurs d'exploration), tout outil permettant un crawl interne.
Solution : Il faut faire des crawls réguliers en monitorant les codes réponses serveurs (users et googlebot) pour repérer un pic ou une augmentation anormale de 4XX. "En revanche, ajoute Gatien Aujay, un système d'alerte interne permet d'être plus réactif car Google Search Console peut passer à côté de certains problèmes".
Une analyse du détail des URLs en 404 permet généralement de comprendre l'origine du problème (pages supprimées ou obsolètes, mise en production hasardeuse, bot trap, etc.).
Ensuite, le responsable SEO évoque plusieurs actions possibles :
- Correction des pages en erreur
- Redirection 301 dans le cas où l'on souhaite conserver l'historique SEO et rediriger les utilisateurs vers une nouvelle page. Dans ce cas il est préférable d'attendre quelques semaines que Google ait constaté la redirection et mis à jour son index avant de corriger les anciens liens.
- Suppression des liens morts.
Balise title vide, manquante ou dupliquée
Risque : La balise HTML title placée dans le header de la page s'affiche dans l'onglet du navigateur et dans le titre cliquable sur la SERP du moteur de recherche. C'est aussi une source d'information sur le contenu de la page pour les crawlers. "Si la balise est vide, manquante ou dupliquée, c'est un renseignement perdu, ou pire encore, une fausse piste", explique Louis Chevant. Résultat, "ne sachant comment l'indexer, les robots risquent de la laisser au fond de leur index".
Détection et outils : La nouvelle Search Console de Google ne proposant plus cette précieuse information, il faut faire passer un crawl sur son site avec des outils comme Screaming Frog, MyRankingMetrics, OnCrawl ou Botify.
Solution et prévention : Les outils détectent les pages dont la balise n'est pas correcte. Pour Louis Chevant, "même si ça prend du temps, l'action manuelle est la plus salutaire" pour régler ce problème. Il ajoute : "il vaut mieux prévenir que guérir, c'est pourquoi il faut installer un template qui pour chaque catégorie automatise les balises titres et les autres, quitte à les modifier ensuite à la main unitairement au cours de la vie de la page." Une bonne habitude à prendre est de relancer le crawl une fois par mois pour vérifier les balises title et éviter l'accumulation d'erreurs.
Meta descriptions absentes ou dupliquées
Risque : La balise meta description joue un rôle indirect pour le SEO, car ne pas la renseigner ou le faire de façon identique à plusieurs reprises fait remonter des erreurs dans la Search Console. Souvent l'extrait que les utilisateurs peuvent consulter dans les SERP des moteurs est issu de la balise meta description. La qualité du contenu de cette balise influence le taux de clic. Et "s'il ne lui convient pas, Google génère par lui-même une meta description, forcément moins efficace qu'une description optimisée manuellement", analyse Aurélien Bardon.
Détection : La Search Console liste des erreurs, toutefois il est bien plus pratique de les repérer via un crawl du site. Tous les crawlers SEO proposent cette fonctionnalité. "Au-delà de la simple absence ou duplication de contenu dans la meta description, note Aurélien Bardon, les crawlers proposent souvent des filtres de type "trop long" (personne verra le contenu en entier) ou "trop court" (c'est de l'espace laissé aux concurrents)".
Solution : Réaliser un crawl pour détecter les erreurs et les corriger manuellement. Et pour prévenir le problème, mettre en place un template de page incluant la balise meta description.
Outils :
Google Search Console (attention les données ne sont pas toujours à jour)
Un crawler type Oncrawl, Botify, Screaming Frog
Du monitoring onpage type Oseox Monitoring, Robotto
Mauvaises pages dans le sitemap XML
Risque : Les erreurs dans les sitemaps XML ont peu d'impact, leur but étant simplement d'aider les robots d'indexation à identifier l'ensemble des pages importantes d'un site Web, notamment les pages récentes. "Ils ne sont pas indispensables au bon référencement de votre site si vous laissez les robots crawler le site dans des conditions normales", rappelle Gatien Aujay
Détection : Dans la Search Console, l'onglet "Sitemaps" aide à comprendre les erreurs rencontrées par Google (pages bloquées par le fichier robots.txt ou en noindex, erreurs d'exploration, pages en doublon, page non indexée, canonical, etc.).
"Il existe également des outils en ligne permettant de tester la validité du format de vos fichiers XML avant de les soumettre à Google", indique l'e-commerçant. Ce sont des outils gratuits en ligne, comme Code Beautify, XML Validator ou XML Validation.
Solution : Il faut régulièrement contrôler l'état des sitemaps dans la Search Console et prévoir des tests de non-régression avec les équipes techniques.