5 astuces pour utiliser au mieux les données de la Search Console de Google

5 astuces pour utiliser au mieux les données de la Search Console de Google Contourner les limites de la Search Console, prendre du recul avec certains chiffres ou définir les bonnes priorités : trois référenceurs livrent leurs bonnes pratiques.

Carnet de santé d'un site, la Search Console présente gratuitement les données que Google veut bien partager avec les webmasters. Comment le site apparaît sans les SERP, quel est son CTR sur ses requêtes les plus importantes, quel est l'état de son netlinking ? Comment Google crawle le site ? Les informations qu'elle contient sont variées, précieuses, très appréciées des référenceurs, et… parfois imprécises voire incohérentes. Pour Vincent Lahaye, responsable du tracking chez Ouest France et fondateur de Carré d'Astuce, il ne faut pas en avoir peur, car "cet outil est bien moins complexe qu'il n'y paraît". Pour profiter au mieux de ces données sans se laisser abuser par les failles, voici six combines proposées par des experts du tracking.

Filtrer les données du search

Dans le rapport de performances, l'utilisateur reçoit un faisceau d'informations pour entrevoir comment son site se défend sur les pages de résultats de Google. Très utile, à condition de bien les filtrer. Par exemple, les données affichées sont par défaut une moyenne de tous les pays dans lesquels le site apparaît. Pour un site français qui vise une audience française, il vaut mieux ajouter le filtre "Pays" avant de commencer à interpréter ses données.

© JDN

Un référenceur souhaitant connaître les mots-clés sur lesquels se positionne une page donnée a deux possibilités pour ajouter ce filtre. Il peut passer par la barre au-dessus des performances globales, en indiquant l'URL complète ou une expression de cette URL. Mathieu Chapon, fondateur de Search Foresight, rappelle qu'il peut aussi sélectionner "Pages" dans le rapport, puis cliquer sur l'URL qui l'intéresse. Cela l'envoie vers un graphique dédié à cette page. S'il revient ensuite dans l'onglet "Requêtes" et ajoute les "Positions moyennes" en cliquant dans la case de droite des performances, il obtient une liste non exhaustive mais représentatives des expressions sur lesquelles la page se positionne. Mathieu Chapon cherche alors dans le classement celles qui se positionnent au-delà du quatrième rang et ont tout de même un certain nombre d'impressions : ce sont les pages à optimiser en priorité pour augmenter les performances du site. "Par exemple, sur l'expression "tailler un rosier au printemps", ma position moyenne est de 7,6 et je me dis que peut-être je ne suis pas bon pour "printemps", parce que sur "tailler un rosier", je suis bon. J'en déduis qu'il me faut rajouter printemps dans la page", illustre l'expert. 

Se reposer sur le rapport de couverture

Pour les référenceurs de niveau intermédiaire qui savent utiliser Screaming Frog mais n'ont pas le budget pour s'offrir une solution de lecture des logs, la Search Console peut s'avérer précieuse. Dans le rapport de couverture, il y a le nombre de pages valides pour le Googlebot : celles découvertes et indexées par Google, qui répondent en 200. Google indique aussi s'il les a trouvées dans le sitemap ou pas. Il donne un échantillon de mille pages seulement, "mais c'est un échantillon représentatif, qui donne des patterns pour comprendre le panel des situations présentes sur le site", précise Mathieu Chapon. Il considère la partie du rapport concernant les URL bloquées ou exclues comme la plus intéressante car "elle permet de distinguer les pages en noindex ou en 404 telles que vues par Google. Cela ne figure pas dans l'inventaire de crawl de Screaming Frog". L'onglet "Erreurs" contient lui-même quatre onglets avec des informations sur ce qui a bloqué Google. Il faut ensuite en tirer les conséquences pour nettoyer et assainir ces zones du site.

Cependant, "dans le cas de sites qui ont un peu d'âge il vous arrivera de trouver quelques URL complètement farfelues avec un message d'erreur qui ne vous mènera nulle part. Si l'inspection d'URL ne vous donne pas d'info sur la page d'origine ou sur des informations d'URL canonique il est possible que ce soit un faux positif. Parfois marquer l'URL comme corrigée suffit à faire disparaître le problème", indique Vincent Lahaye. Même s'il conseille d'y consacrer chaque semaine un peu de temps, le fondateur de Carré D'Astuce nuance : "Attention, il ne faut pas s'obstiner à atteindre la perfection. Tant que les URL en question ne sont pas stratégiques dans la vie du site, surtout pour les problème "jaunes" qui ne sont que des avertissements, vous ne devez pas en faire votre priorité ".  

Les signaux Web Vitals, à consommer avec modération

Le tout nouveau rapport sur les indicateurs des Core Web Vitals sert à vérifier que les pages se chargent bien sur mobile et que les utilisateurs ne vont pas avoir une expérience dégradée. Vincent Lahaye recommande toutefois de ne pas en faire non plus une priorité : "Si vous avez déjà des problèmes de redirection, que vos balises title ne sont pas impeccables ou que vous ne faites pas parler de votre site, ce ne sont pas quelques points de LCP ou CLS qui changeront votre visibilité."

En revanche, Mathieu Chapon pointe une limite de ce rapport : "il indique les pages problématiques sans détailler ce qui ne va pas". Pour aller plus, loin, il faudra encore croiser ces pages avec les informations disponibles dans l'outil Page Speed Insight de Google. "Inutile de le faire sur l'ensemble du site, rassure l'expert, les pages qui sous-performent ont presque toujours des patterns récurrents, et ce sont eux qu'il faudra modifier pour avoir une réelle influence sur le score global du site". 

Ajouter des propriétés pour élargir les échantillons

Pour contourner la limitation à mille requêtes ou pages dans le rapport de performances, une astuce consiste à ajouter des propriétés par répertoire. "Pour chaque répertoire, un nouvel échantillon de mille lignes et généré dans un nouveau rapport séparé", explique Céline Mazouffre, consultante SEO chez Resoneo. Et pourquoi s'en priver ? Si Google vérifie l'authenticité de chaque demande d'ajout, il n'y a pas de limite sur le nombre de domaines. "Pour un site d'annonces avec beaucoup de propriétés ou pour un site compartimenté en plusieurs langues réparties par pays, cette catégorisation permet d'étendre et de préciser le suivi", illustre la consultante SEO. "Attention toutefois, prévient le responsable tracking chez Ouest France, si vous ne décochez pas les notifications lors de l'inscription préparez-vous à être spammé par Google à chaque nouvelle annonce !"

© JDN

Vincent Lahaye va un peu plus loin : "l'astuce dans l'ajout par préfixe réside sur l'URL que vous allez indiquer. Il est très utile d'ajouter, en plus de votre site, des domaines qui ne sont pas censés recevoir du trafic, comme la version HTTP d'un site en HTTPS (et réciproquement), la version sans www d'un site dont le sous domaine principal est www. Ajouter ces deux versions permet de surveiller le crawl et les liens vers des versions non canoniques du site pour détecter d'éventuelles anomalies".

Passer à la vitesse supérieure avec l'API

Enfin, pour s'affranchir vraiment des limites de la Search Console, la solution un peu technique, certes, mais efficace est de recourir à l'API Search Console. "Là, vous récupérez tout ce qui se passe sur le périmètre donné", souligne Céline Mazouffre. "Le mieux, c'est de stocker la data afin de cumuler un historique de plusieurs années, au-delà des seize mois proposés sur l'interface". L'experte SEO reconnaît toutefois que c'est un gros travail qui suppose au préalable un certain niveau d'expertise.

Et puis, "il manquera toujours quelques clics (RGPD ou mots-de-clés rares). Il reste une petite partie perdue, on ne sait pas toujours pourquoi", nuance Céline Mazouffre. "Mais ces informations peuvent avoir un impact décisionnel. En regardant les pages avec beaucoup de mots-clés qui remontent : il arrive de réaliser que certaines en ont trop, et que ce n'est pas pertinent. Conclusion : il faut fabriquer des landing page plus pertinentes."

Aux référenceurs réticents devant la technicité de la tâche, Vincent Lahaye préconise de passer par Data Studio, qui repose sur l'API. Pour lui, "l'outil le plus complet accessible à tous est l'add on Search Analytics pour Google Sheets. Il permet de remonter des informations quasiment inaccessibles, comme les requêtes tapées vers votre site, groupées par page." Toutes ces informations peuvent être programmées pour se déclencher les semaines sans action en cours, afin d'envoyer des informations non biaisées. La précaution s'impose avec cet add on, car "il n'est pas développé par Google et, même s'il passe par une couche de sécurité Oauth, certains décideurs peuvent se montrer frileux. Dans ce cas, il ne reste plus qu'à coder un script pour faire la même chose !" conclue Vincent Lahaye.