Clics selon Google Leak : distinguez le bon, l'abus et le truand
Les déboires de Google auprès de la justice américaine et le récent leak ont révélé un peu plus le fonctionnement de l'algorithme du géant américain. Même si les révélations sont souvent parcellaires et donnent peu de contexte, le rôle des clics, notamment, a été mis en lumière. Des clics pris en compte au sein du système NavBoost, qui gère un ensemble de données et fait partie du super algorithme de tri nommé Superroot.

Au sein de celui-ci, NavBoost cherche à rendre les résultats des SERPs plus pertinents. Pour cela, il se base sur les interactions des utilisateurs avec la page de résultat de recherche. NavBoost se sert de "tranches" pour gérer différents ensembles de données. "Les données de Navboost sont explicitement liées à l'analyse des SERPs directement, donc des logs de Google", pointe Olivier de Segonzac, associé fondateur de Resoneo. "Il n'y a pas de données de chrome confirmée dans les leaks. Leur utilisation pour les classements reste un point opaque, mais cela fait débat au sein de la communauté."
Google utilise des données pour évaluer la satisfaction des utilisateurs. Différents types de clics sont passés au crible. On distingue par exemple les clics écrasés, considérés comme moins fiables et pertinents que les clics non écrasés. Les statistiques sur les clics seraient apparemment stockées sur 13 mois, afin d'effectuer des analyses comparatives saisonnières.
L'analyse de ces clics serait importante pour le classement dans les SERPs de Google. "Dans les faits, Google ajuste sans cesse son classement en fonction des données de clics : combien de fois le résultat a-t-il été vu ? Est-ce qu'il a souvent été cliqué ? L'utilisateur a-t-il cliqué sur la page, puis est aussitôt reparti, est-il resté quelque temps, montrant ainsi un certain intérêt pour la page ?", questionne Olivier de Segonzac. Parmi les mesures enregistrées, on trouve aussi le goodClick et le badClick.
Avec goodClicks, Google récompense le bon comportement post clic de l'utilisateur
Pour Olivier de Segonzac, "les "good clicks" correspondent aux liens sur lesquels les gens cliquent et restent un certain temps ". D'après Mario Fischer, éditeur de Website Boosting, " ils se produisent lorsque les visiteurs cliquent sur un résultat de recherche et restent plus longtemps. On suppose plus de 30 secondes environ sur la page cible. "On estime que le moteur de recherche doit calculer ce temps par rapport aux différents types de recherches notamment. "Google ajuste le seuil en fonction de chaque requête, car les comportements utilisateurs peuvent être très différents de l'une à l'autre", souffle Olivier de Segonzac.
Ce n'est pas tant le CTR, c'est-à-dire le taux de clics, mais le comportement post click de l'utilisateur qui est donc analysé par Google avec le goodClick. Or, le CTR et le comportement post clic ont certainement une place très importante pour Google. "Selon moi, une page avec un CTR supérieur ou un bon engagement post-clic peut être promue dans les résultats, même si son contenu ou ses backlinks sont moins compétitifs", avance même Jonathan Gérôme, directeur SEO et analytics chez Vanksen.
Pour soigner son goodClick, ce n'est donc pas tant l'optimisation du titre, de la meta description et l'importance du domaine, qui appartiennent davantage au CTR, qui comptent. La recommandation d'Olivier de Segonzac est plutôt de penser besoin utilisateur, intention de recherche et valeur ajoutée. "Si le contenu de votre page est qualitatif, couvre le sujet de façon complète par rapport à une problématique identifiée, et apporte une valeur ajoutée par rapport aux autres contenus de la SERP positionnés sur la même requête cible, alors les critères sont réunis pour générer des "good clics". Il convient également d'éliminer les frictions utilisateurs. Cela en travaillant ses webperfs pour une page qui charge rapidement, et en améliorant l'accessibilité de son contenu à tous. "
Attention aux "abus" pour ne pas activer de badClicks
Au sein de l'algorithme de Google existe à côté des goodClicks, les badClicks. Selon Olivier de Segonzac, ils correspondent à ceux sur lesquels les visiteurs cliquent avant de revenir rapidement sur la liste de résultats. "On suppose aussi qu'un clic sur un lien suivi d'un retour rapide, et un clic sur un autre lien sans retour à la SERP va favoriser le second résultat et défavoriser le 1er", lance Jonathan Gérôme.
D'après certains référenceurs, une page aves un mauvais CTR par rapport à celui attendu et ayant un comportement post clic considéré comme négatif par Google, peut rencontrer une baisse de classement dans les SERPs. "Le retour rapide à la SERP peut renforcer cette baisse ", dévoile Jonathan Gérôme.
Pour Olivier de Segonzac, l'application du "bad clic" pourrait même expliquer en partie certaines chutes dans le classement. "Suite à un consciencieux travail d'optimisation, ou à un boost lié à une update, il est possible qu'une page fasse son entrée dans les meilleurs résultats. Cependant, si ses données de clics sont médiocres, alors sa position peut être réajustée. A contrario, certains annonceurs découvrent, parfois avec frayeur, une chute importante de position sur une requête précise sur la Search Console, notamment suite à une update. Mais si les signaux sont au vert, la situation peut évoluer." Les optimisations sont les mêmes que celles dictées précédemment pour les goodClicks.
Google en tant que "truand" ?
Dans cette histoire de bon et d'abus, il semblerait que ce soit Google qui ait endossé le rôle du "truand" pour un certain nombre d'observateurs. Pendant longtemps, le géant américain avait en effet admis que l'expérience utilisateur était importante, mais il restait évasif sur l'impact des clics. Ceci alors que nombre de SEO soupçonnaient déjà son utilisation des données liées aux clics. "Nous avons déjà fait des essais sur des sites de test en mode Lab et en manipulant les clics", pointe Jonathan Gérôme. "Nous avons déjà vu que cela avait un impact sur le positionnement. Notons que ce sont des techniques BlackHat que nous n'utilisons évidemment pas pour nos clients, mais pour percer les critères de l'algorithme."
Pour lui, ce qui change avec le leak, c'est la confirmation implicite que Google utilise ces signaux de manière plus active et nuancée. On sait aussi que des documents de la Federal Trade Commission confirment par exemple que les données de clics sont utilisées à des fins de classement.
Pour Mario Fischer, "Google a refusé d'en dire plus afin d'éviter une mauvaise publicité et de ne pas encourager les spammeurs à créer du trafic de toute pièce afin de manipuler les classements de ses SERPs." Pour lui, dans cette affaire, la firme de Mountain View voulait juste obtenir des statistiques pertinentes, et non surveiller individuellement les utilisateurs individuellement. "A ma connaissance, il n'est pas possible, et non judicieux, de remonter jusqu'aux personnes", lance Mario Fischer.