Construire ses data pour améliorer son SEO en 6 étapes
Passer des données collectées à l'optimisation de la stratégie de référencement est un défi récurrent pour les entreprises : retour aux bases de la structuration des data SEO.
Beaucoup d'entreprises ont beau savoir que les données collectées sur leur site sont très importantes, elles peinent encore à les valoriser. Pourtant, en extraire des informations très utiles pour son référencement est à la portée du plus grand nombre. Pour Ronan Chardonneau, enseignant chercheur en marketing digital, "les bases d'une stratégie SEO reposent sur le suivi de trois scopes : l'accessibilité, le contenu et la popularité. Ils permettent de suivre le comportement de l'utilisateur et l'intérêt des moteurs de recherche pour le site. Ajoutez-y vos objectifs business et vous avez les axes principaux de votre campagne de référencement naturel". Retour en six étapes sur les techniques pour apprivoiser ses data.
1. L'analyse des mots clés
C'est la première étape de toute mise en place d'une stratégie SEO. Préalable à la définition de l'arborescence du site, des catégories et de la ligne éditoriale, cette étape a pour objectif de fournir une liste de plusieurs centaines ou milliers de mots et expressions assorties d'un score : le "potentiel" des mots clés, qui se compose du volume de recherche et du taux de conversion de chaque expression. Le Keyword Planner de Google Adwords reste encore aujourd'hui l'outil le plus précis pour connaître le volume de recherche. Pour chaque mot clé, Ronan Chardonneau rappelle qu'il faut également connaître le positionnement de ses concurrents sur la SERP. Cette liste est ensuite divisée en clusters qui organisent les mots clés par intention de recherche et forment le tissu sémantique du site.
2. Rendre son site accessible
Un site est accessible lorsque les robots des moteurs de recherche parviennent facilement à trouver ses pages, à les comprendre et à les indexer. Ce qui paraît simple en théorie ne l'est pas toujours en pratique, c'est pourquoi Ronan Chardonneau recommande de mettre en place l'analyse constante de la vitesse de chargement des pages et de leur indexation sur Google Search console pour savoir combien de pages sont inaccessibles. Il est normal qu'il y en ait quelques-unes, c'est à chacun de fixer le seuil au-delà duquel elles sont trop nombreuses. "L'analyse des logs est le seul moyen de connaître en détails le comportement des robots sur le site", indique Gary Le Masson, éditeur de Santiano.io, un framework pour les tag management systems (TMS) : combien de pages sont explorées par jour ? Lesquelles ? Quelles erreurs sont remontées ? Les outils d'analyse de crawl les plus courants sont OnCrawl et Botify.
3. Proposer le bon contenu
Le contenu est souvent le parent pauvre de l'analyse SEO. Pourtant, l'importance de ce dernier pour séduire l'utilisateur et les moteurs de recherche n'est plus à démontrer. Des informations simples sont accessibles sur Google Analytics. En observant les pages d'arrivée, de sortie et le temps passé sur chacune, on peut savoir quelles pages sont lues et quelles pages mettent souvent un terme prématuré au parcours de conversion. Suivre le positionnement du site sur ses mots clés est plus fructueux dans la durée. Ranks.fr est un outil français qui étudie la visibilité du site et celle de ses concurrents. En croisant les données de Google Analytics sur le nombre de visites issues de la recherche naturelle pour chaque page et leur taux de conversion avec le positionnement de la page sur ses mots clés, on se fait une idée plus précise de la répartition des efforts à mettre en place pour continuer à améliorer le contenu de son site.
4. Bien connaître son audience
L'audience d'un site donne une idée de sa popularité. Son analyse commence par la segmentation des campagnes via l'utilisation de liens trackés par des balises utm. Elles permettent d'ajouter des informations telles que le nom de la campagne ou la source du trafic. Google Analytics traite et trie automatiquement ces données. Cela permet d'isoler le trafic obtenu par une campagne d'emailing visant un nouveau modèle de parasol, par exemple. Pour que ce soit efficace, "il faut conserver et commenter tous les utm que l'on met en place", précise Gary Le Masson. Lui-même utilise un outil maison pour créer et suivre ses utm.
Quant au trafic dû aux liens entrants, Google Search Console en présente un grand nombre afin de savoir combien ils sont et combien de pages sont référencées par leur biais. Google Analytics, dans les parties "source/support" et "sites référents" de l'onglet "Acquisition" donne des informations sur le trafic généré par les liens externes et internes. Cependant, beaucoup de liens dont l'origine est inconnue vont dans la catégorie (direct)/(none). Gary Le Masson distingue ceux qui émanent d'une URL directement tapée par l'utilisateur dans la barre d'adresse ou enregistrée dans les favoris (la version officielle de Google) et le trafic email en provenance de gros clients comme Outlook, qui en réalité compose une part importante du trafic "direct". Seul le tracking utm permet de les séparer. Majestic SEO donne un panorama complet de tous les liens pointant vers son site, même ceux qui ne génèrent pas de trafic.
5. Croiser les données internes et externes
Les outils généralistes de collecte de données comme Google Analytics ou Yooda sont performants mais donnent les mêmes informations à tous. Or, pour chaque entreprise il y a des données spécifiques. Le must reste donc de définir les informations utiles pour soi et de croiser les données internes et externes qui permettent de les obtenir. Dans l'e-commerce , "savoir que les hommes de 45 ans ont plus tendance à acheter des chaussures basses lors de la deuxième visite et quand il fait beau" permet d'optimiser les pages du site en fonction du trafic que cela représente", illustre Paul Colombo, responsable de l'acquisition trafic SEO chez Sarenza. Le comportement des utilisateurs transcende les critères analysés, c'est pourquoi toutes les ressources peuvent servir : âge, sexe, section les plus visitées, taux de revisite, pages de sorties, mais aussi météo, état du trafic, etc. Pour éviter de passer trop longtemps à courir après les données, certaines entreprises croisent différentes API pour tout recevoir sur le même tableau de bord.
6. Restituer les bonnes données
Présenter ses données collectées est tout un art, car "lorsqu'on s'adresse à sa hiérarchie, par exemple, il faut être simple et concis : la position globale, le trafic et le chiffre d'affaire générés par le SEO comparé à ceux des autres sources de trafic ainsi que l'évolution des KPI de base sont suffisants. En revanche, pour prendre une décision SEO, il vaut mieux comparer le crawl du bot et le trafic, l'évolution des impressions et du CTR, les tendances des mots clés, l'évolution du positionnement catégorisé et l'analyse de la concurrence", fait valoir Paul Colombo.
Quant aux outils de présentation, il y a deux écoles. La première plébiscite les tableaux de bord de Data Studio, Excel ou Google Sheets. Configurés une première fois, ils offrent un bon niveau de personnalisation et s'actualisent au fil des reporting, ce qui fait gagner beaucoup de temps. La deuxième, dont fait partie Ronan Chardonneau, préfère paramétrer via un TMS comme Matomo des seuils au-delà desquels ils reçoivent des alertes : "rouges si je dois faire quelque chose, ou vertes si les résultats sont particulièrement bons", détaille-t-il. Le gain de temps est encore plus important, mais les données ne sont pas collectées sur un tableau de bord pouvant être présenté à tout instant au client ou à la hiérarchie.