Demain, le SEO vous dira combien il va vous rapporter
De nouveaux outils permettent de prédire l'impact des optimisations SEO mais aussi ce que peut rapporter tel ou tel mot-clef.
Les clients de prestations SEO veulent plus de transparence sur ce que leurs investissements en référencement naturel vont leur rapporter en termes de positionnement, de trafic et de chiffre d'affaires. Des solutions pour prévoir leurs résultats de plus en plus précisément commencent à émerger. Pour Louis Chevant, fondateur de l'éditeur d'outils SEO SmartKeyword, l'objectif de la prédiction – c'est le terme usuel - des résultats du référencement naturel est "d'apporter plus de transparence sur le parcours d'optimisation et faciliter la prise de décision, avec à la clé un gain de temps et une diminution des coûts significatifs. C'est une approche du SEO beaucoup plus accessible financièrement", souligne-t-il. Mais aujourd'hui, seuls certains résultats peuvent cependant faire l'objet d'une prédiction fiable.
Les référenceurs estiment que le positionnement des pages est calculé sur une base de 200 à 300 critères par les algorithmes des moteurs de recherche, Google en premier. Des analystes SEO cherchent désormais à reproduire les résultats de ces algorithmes afin de pronostiquer le positionnement de pages Internet pour des mots clés. Ils utilisent des outils maison intégrant des algorithmes plus ou moins complexes pour calculer un "taux de faisabilité", c'est-à-dire une estimation du rang sur lequel une page peut se positionner. Rémi Bacha et Vincent Terrasi, data scientists chez OVH, ont mis au point une méthode indiquant le rang probable d'une page sur la SERP selon son contenu et ses caractéristiques techniques. "Pour l'instant, nos prévisions ne concernent pas la position zéro, qui est trop instable et sur laquelle nous manquons encore de données", précisent-ils.
Après avoir constaté que les critères de positionnement de Google variaient d'un thème à l'autre, les deux data scientists ont élaboré une liste d'une centaine de facteurs dont l'impact SEO était prouvé. "Il y a des facteurs internes, comme la webperf ou l'appartenance au https, des facteurs externes, comme le nombre et la provenance des backlinks, mais aussi une note sémantique, la pertinence du contenu étant primordiale pour Google", illustre Vincent Terrasi. Pour savoir quelle est l'influence de chaque critère pour un thème donné, leur méthode consiste à récupérer les cent premiers résultats de la SERP sur environ 20 000 requêtes. "Nous passons au crible le contenu, les balises, le maillage interne, et un grand nombre d'autres éléments de ces cent premières pages déjà positionnées pour distinguer ce qui a fonctionné et ce qui a échoué", explique Rémi Bacha. Un algorithme de machine learning lisse ensuite l'importance des critères pour dresser une cartographie réaliste et précise de leur importance et limiter les biais d'analyse.
Ce procédé revendique une fiabilité de 90%. Autrement dit, seules 10% des préconisations n'ont pas l'influence attendue sur le positionnement de la page. "Sur l'algorithme intelligent de Google, Rankbrain, certains critères apparaissent, disparaissent ou connaissent un effet de synergie qui échappe probablement même à ses concepteurs, tempère Rémi Bacha, Il n'est donc pas possible de reproduire exactement l'ensemble des calculs de ce moteur de recherche".
Pour se concentrer exclusivement sur le choix des mots clés dans une perspective ROIste, le fondateur de SmartKeyword a lui aussi mis au point une recette. L'objectif ? Attribuer un taux de conversion à chaque page et un score aux mots clés en fonction de la quantité de trafic estimée ainsi qu'une valeur monétaire calculée à partir du chiffre d'affaires qu'ils peuvent générer. Les données analysées sont celles du site, récupérées sur Google Analytics et la Search Console. Un utilisateur peut ainsi savoir que "sur les 10 000 sessions SEO de sa page sur les crèmes solaires bio, 10% sont dues au mot clé "crème solaire bio pour enfants". Si la page a généré 300€ de chiffre d'affaires sur vingt ventes, le mot clés en a donc deux à son actif, et le positionnement SEO de la page sur ce mot clé rapporte donc 30€," illustre Louis Chevant. "Si un mot clé est positionné en deuxième ou troisième page sur un mot clé tapé X fois chaque mois, ces même calculs nous permettent de dire au client, au vu du taux de conversion de la page, quel chiffre d'affaires il pourrait générer s'il gagnait des positions et se plaçait en première page."
"Pour deviner ce que veut l'internaute, certains tentent de "penser comme Google"
Le résultat, exact dans 80% des cas, pourrait gagner quelques pourcents au fil des améliorations, mais là encore, le plafond dépend de données dont Google garde jalousement le contrôle.
Prédire avec précision dans quelle intention un internaute tape chacune de ses requêtes permet de préparer et publier sur son site le contenu exact qu'il s'attend à trouver. Google se montre de plus en plus sensible à l'adéquation entre la finalité de requête et le contenu. A tel point qu'il en a fait officiellement un critère de positionnement. Comme c'est aussi un vecteur de hausse du taux de conversion, l'intention de recherche est naturellement devenue le nouvel eldorado des référenceurs.
Pour deviner ce que veut l'internaute, Rémi Bacha fait partie de ceux qui tentent de "penser comme Google", puisque le moteur de recherche sait mieux qu'eux-mêmes ce que veulent ses utilisateurs. Le data scientist récupère les résultats de la SERP, les analyse et instaure des "labels d'intention" pour caractériser les points en commun entre les pages : "acheter", "s'informer", "se déplacer", etc.
"La même technique peut être utilisée pour la reconnaissance d'images et la reconnaissance d'intention"
Louis Chevant rappelle également que les enchères sur Adwords constituent une source d'informations privilégiée pour savoir comment Google interprète l'intention d'achat pour une requête. "Si le prix de l'enchère excède deux ou trois euros, on sait qu'elle est considérée comme rentable, donc commerciale", énonce-t-il.
Vincent Terrasi opte pour une méthode plus complexe techniquement qui obtient déjà 97% de résultats positifs … sur une base de données anglophone. Elle consiste à apprendre à un réseau neuronal cognitif à reconnaître une intention de recherche en explorant toutes les combinaisons possibles pour cette intention dans une base de données de mots clés de recherche recueillie à partir des moteurs de recherche. Cette même technique est utilisée dans la reconnaissance des images. L'objectif est dorénavant de recueillir une performance identique en français.
Enfin, d'ici quelques mois, il sera possible selon Vincent Terrasi d'utiliser un pronostic de trafic et de chiffre d'affaires sur un thème ou une page, et non plus seulement un mot clé, pour prioriser son travail. Cette prévision s'appuiera sur les données passées pour en déduire le potentiel à venir.