SEO : le top 5 des erreurs techniques qui pénalisent une stratégie de contenu
Une bonne stratégie de contenu pour améliorer son référencement n'atteindra jamais son potentiel sans un environnement technique propice.
La production de contenus et sa hiérarchisation sur un site Web font partie des principaux axes d'optimisation du référencement naturel. Mais certains critères techniques peuvent freiner les performances des contenus déployés. Voici cinq pièges à éviter.
1. Une version mobile inaccessible
Depuis le 1er juillet 2019, les nouveaux sites Web sont, selon Google, crawlés avec l'agent smartphone (user-agent). Si c'est le cas, les robots voient vos pages Web comme un internaute sur son smartphone. L'objectif est de permettre à Google d'explorer, afficher, et indexer correctement vos contenus. Pour vérifier si votre site est passé en mobile first indexing, consultez la Search Console. si c'est le cas, assurez-vous en premier lieu que la version mobile n'est pas bloquée via l'instruction disallow dans votre robots.txt.
Un écran de smartphone ou de tablette offre moins d'espace que sur desktop. Il est naturel de vouloir optimiser l'affichage des contenus. Mais ce serait une erreur de tronquer les contenus pour un rendu visuel plus attractif. De même, enlever des liens sur la version mobile pénalise le maillage interne. Il est au contraire recommandé d'assurer des contenus semblables entre la version desktop et la version mobile. Les balises Meta (Title, Description) doivent être les mêmes.
Soyez aussi attentifs aux actions demandées à vos utilisateurs, car Google charge difficilement un contenu qui demande une action spécifique avant d'accéder au contenu. C'est d'autant plus vrai sur mobile où l'intégration est souvent mauvaise. Exemple : une fenêtre d'invitation à s'inscrire à une newsletter par-dessus le contenu, où le format n'est pas prévu pour le mobile, et le bouton pour réaliser l'action, ou la refuser, est inaccessible. Il est aussi fréquent d'avoir un formulaire à remplir, mais de ne simplement pas pouvoir scroller sur mobile.
2. Un site sans rendu HTML
Pour le développement de sites et d'applications Web, les frameworks JavaScript ont le vent en poupe auprès des équipes techniques pour les multiples possibilités apportées. Mais ne pas prendre le temps de rendre en HTML les pages est une mauvaise manœuvre. Même si l'affichage sur le navigateur Web est satisfaisant, il faut toujours se rappeler que les robots des moteurs de recherche ont leur propre façon de voir les pages. Googlebot privilégie les contenus déjà rendus en HTML, sans exécution du JavaScript. Utilisez alors un server-side rendering (SSR) qui sert d'intermédiaire pour transformer le JavaScript en HTML. Une autre option est le client-side rendering (CSR).
Selon Erlé Alberton, head of SEO chez Reezocar, il vaut mieux choisir le SSR pour rendre directement en HTML et faire économiser des ressources à Googlebot. Le CSR implique que Google doive interpréter à nouveau le JS pour lire les contenus. Cela entraîne des efforts supplémentaires pour comprendre le contenu du site. "Le JS est difficilement interprétable par les crawlers. Les frameworks JavaScript sont faits pour les applications. Le SSR est absolument primordial pour des pages Web.".
3. L'indexation de vos environnements de test
Les process de création de sites Web, ou leurs mises à jour, demande des phases de test. Les versions de travail des sites (les "preprods") sont des outils essentiels. Mais attention à ne pas autoriser leur indexation ! L'indexation des environnements de test et preprod crée une duplication de vos contenus.
Pour éviter la duplication du site et la publication des versions de travail, il est indispensable de les garder en accès privé. La protection par une authentification ou l'autorisation de certaines IP (liste blanche) sont des solutions courantes. Si vous choisissez d'utiliser les instructions et balises noindex/nofollow, dans vos environnements de test… n'oubliez pas de les enlever une fois les contenus publiés ! Autrement, vos pages mises en ligne volontairement ne seront pas considérées par Googlebot.
4. Ne pas se préoccuper de son système de pagination
La pagination de contenu est une solution simple pour alléger l'expérience utilisateur. Pour la rubrique d'un site éditorial, ou une catégorie de produits sur un site ecommerce, elle simplifie la navigation de l'internaute.
Cependant, les référenceurs alertent sur la pertinence de la pagination. Selon eux, elle ne doit pas être systématisée. Le risque majeur est de présenter aux robots des pages peu pertinentes. La pagination non maîtrisée dessert donc la stratégie de contenu dans son ensemble.
La pagination encourage également les robots à aller de plus en plus en profondeur dans le site. Il est donc essentiel de prévoir des solutions complémentaires pour mettre en avant les pages les plus stratégiques grâce à du maillage interne.
5. Sous-estimer l'impact du temps de chargement
Le budget de crawl est précieux. Les référenceurs souhaitent tous fournir des pages rapides et légères. Autant pour l'expérience utilisateur que pour les performances SEO, le temps de chargement est un enjeu technique majeur. Parmi les bonnes pratiques connues, nous pouvons citer le choix d'une solution d'hébergement Web efficace et une configuration optimale côté serveur.
Aymeric Bouillat, consultant SEO technique chez Novalem va plus loin en parlant de la notion de convivialité des pages : "J'ai rencontré le cas concret d'un site Web qui a significativement augmenté le nombre de ses publicités affichées pour compenser une baisse de trafic et de revenus. Le trafic SEO s'est progressivement dégradé." C'est une typologie de contenus consommateurs en ressources. Ils pénalisent à la fois l'expérience et les performances. Les carrousels, galeries média, et animations chargées en JS font tout autant partie des points de vigilance à avoir. Aymeric Bouillat prend tout de même du recul sur la notion de performance Web : "Une page avec des indicateurs a priori moyens reste pertinente quand le contenu est qualitatif."