Lorsque Google s'inspire de l'expérience utilisateur ?

Le point sur quelques brevets déposés par Google au sujet de l’expérience utilisateur, et sur l'influence de cette expérience sur le moteur de recherche.

Nombre de référenceurs s’accordent sur l’intérêt de traiter l’expérience utilisateur en SEO. Après tout, attirer du trafic c’est bien, mais la finalité c’est de convertir le visiteur. En revanche, il y a encore un scepticisme sur le réal impact des signaux utilisateurs sur les pages de résultats de Google. On va donc faire un tour sur quelques brevets déposés par Google au sujet de l’expérience utilisateur, et sur l'influence de cette expérience sur le moteur de recherche.

C’est quoi l’expérience utilisateur ?

L’expérience utilisateur du point de vue web est le ressenti d’un utilisateur suite à son interaction avec un site web. L’objectif d’une bonne expérience utilisateur sur un site web est de proposer une expérience agréable qui réponde à la fois aux attentes de l’utilisateur et à celles du propriétaire du site en termes de conversions ou d’image de marque. L’expérience utilisateur est étroitement lié à la psychologie humaine et aux émotions qu’un site peut susciter. C’est pourquoi des domaines comme l’ergonomie web, le web design, le style d’un contenu ou encore le temps de réponse d’une page ont une influence.Les fondateurs de Google, Sergey Brin et Larry Page (sur la photo ci-dessus) ont toujours eu l’objectif d’offrir des résultats pertinents et se sont depuis longtemps intéressés à traduire de manière mécanique et objective des systèmes permettant de s’adapter à cette valeur subjective. Les contraintes techniques ont fait que ça n’a pas toujours été possible ou en tout cas pas de manière satisfaisante. Mais l’évolution des algorithmes et la puissance de calcul actuelle font que c’est un facteur qui compte vraiment en SEO, et c’est pas complètement nouveau…

Le surfeur aléatoire

Un des critères utilisés par Google pour positionner une page est le nombre de liens qu’elle reçoit depuis d’autres pages (internes ou externes). Avec ce système, une page est considérée importante si elle reçoit des liens depuis d’autres pages. Le poids du lien ou le jus transmis dépend de la popularité de la page liante. Il y a donc un aspect quantitatif à la fois dans le nombre de liens reçus et dans la popularité de la page liante.

La théorie du surfeur aléatoire consiste à imaginer un internaute qui navigue de page en page, et de liens en liens de manière aléatoire. Et la probabilité que ce surfeur aléatoire visite une page représente le pagerank. En effet, plus il y a de liens vers une page, et plus il est probable que ce surfeur aléatoire visite cette page.
Ce système date de l’origine de Google en 1998, ainsi que la définition du pagerank. Le problème avec ce système est que chaque lien d’une page porte le même poids et apporte le même jus aux pages liées. 

Cette méthode du surfeur aléatoire a l’avantage d’être facile à calculer et facile à déployer sur les machines de Google. Et bien que cette version première du pagerank a fait le succès du moteur de recherche, ce modèle atteint ses limites. On le voit bien avec l’abus sur les stratégies de netlinking visant à manipuler les pages de résultats.


Le surfeur raisonnable

Ce document nous explique l’invention d’un modèle basé sur un surfeur raisonnable qui suivra certains liens avec plus de probabilité que d’autres. Ce modèle du surfeur raisonnable se rapproche donc plus d’un comportement utilisateur « normal » car chaque lien sur une page n’a pas la même probabilité d’être suivi. Ce brevet explique aussi qu’un nouveau rank est associé à la page, un rank que j’ai décidé d’appeler « behaviour rank ».

Pour assigner cette probabilité de cliquer sur un lien, ce système se base sur deux types d’indicateur :
  1. Les caractéristiques d’un lien
  2. Les données sur le comportement utilisateur appelées aussi « critères d’usage ».

Les caractéristiques d’un lien

Le document nous donne quelques exemples de caractéristiques pouvant être prises en compte et qui ne sont pas toutes susceptibles d’être utilisées. On retrouve ainsi d’après ce brevet :
  • La taille de la police du texte du lien
  • Sa position dans la page
  • Le contexte sémantique du lien
  • Le nombre de mots du lien
  • etc.

Les données sur le comportement utilisateur

Ces données utilisateur étaient obtenus par la Google toolbar à l’époque et sont aujourd’hui récupérées par Google Chrome. Toujours d’après ce brevet déposé en 2004, les informations d’usage d’une page qui sont collectées peuvent être :
  • Les informations sur la navigation, quels liens sont sélectionnés,
  • Les intérêts des utilisateurs,
  • A quelle fréquence un lien est cliqué,
  • A quelle fréquence aucun lien est cliqué sur la page,
  • La langue de l’utilisateur,
  • Etc.
Le poids d’un lien et sa capacité à transmettre du pagerank (ou du jus) à une autre page dépend donc de ces critères. D’ailleurs, une page peut être découverte, explorée et indexée par Google uniquement par ce qu’il y a de l’usage sur cette page, même si il n'y a aucun lien vers elle (ni de sitemap).


Les Critères d’usage 

S’il faillait découper le SEO en trois grandes parties, c’est forcément réducteur mais ça pourrait être ainsi :

  • Les critères On-site : pertinence sémantique d’une page sur une requête donnée, nombre de liens vers la page depuis le même domaine, position de la page dans la structure du site…
  • Les critères Off-site : nombre de liens depuis d’autres sites, nombre de fois que le site a été mentionné sur le web en relation avec une requête donnée (co-citation), liens depuis des sites thématiques et d’autorité...
  • Les critères d’usage : nombre de fois qu’un résultat est cliqué sur une page de résultat, nombre de clics d’un lien, temps passé sur une page, taux de retour vers une page de résultat, et autres données liées à expérience utilisateur....
Les critères d’usage sont difficilement manipulables par un webmaster ou un référenceur, ils représentent donc un élément de pertinence certain pour Google. Mais pour que ce soit vraiment pertinent, Google a besoin d’un nombre important de données utilisateur pour une requête donnée et une page donnée. Dans la pratique donc, ces critères d’usage sont surtout utilisés sur des expressions génériques ou semi-génériques. Mais la longue traine est également impacté par l’expérience utilisateur, l’algorithme hummingbird en est d’ailleurs un bel exemple.


Quels signaux utilisateurs sont pris en compte par Google ?

En 2005, Google dépose un brevet sur la manière dont il ré-ordonne les résultats en fonction de l’activité de la souris. Ce document nous explique que l’analyse de l’activité de la souris sur le pages de résultats de Google permet d’affiner l’ordre des résultats et notamment des one-box (les résultats enrichis comme les liens Google actus, les sitelinks, etc.).

Un autre brevet déposé en 2005 permet de déterminer quel type de résultat est le plus adapté en fonction des données utilisateurs, de la requête, et le format de la page de résultats. C’est directement lié aux résultats de la recherche universelle (résultats images, vidéo, maps...).

Dans certaines circonstances, l’utilisation d’informations pour "profiler" un utilisateur peut inclure le nombre de clics ou visites vers un site, une page, ou un groupe de sites pendant une période donnée. D’autres caractéristiques sur le comportement utilisateur peuvent être utilisées comme le temps passé d’un utilisateur à interagir avec le site, la part du site parcouru par un utilisateur, les actions prises par cet utilisateur pendant qu’il visite le site, et son activité suite à ces interactions avec le site.

Il y a bien sûr d’autres brevets faisant référence à l’utilisation de données sur le comportement utilisateur et certainement d’autres à venir.

Comment certains sites aussi moches arrivent à aussi bien se positionner ?

Il faut bien penser au fait que tous les critères de classement de Google sont relatifs, relatifs à un univers sémantique et relatifs à univers concurrentiel. Un site A avec un web design pauvre mais riche en contenu et optimisé en SEO peut bien se positionner s'il n’existe pas de site sur le même créneau avec à la fois un super design, du bon contenu et optimisé. Mais ça signifie aussi que le site A laisse des opportunités à ses concurrents de se faire dépasser.

Conclusion

Du coup, l’ergonomie, le design d’un site, le temps de chargement d’une page, et même le marketing de contenu, tout ce qui peut avoir une influence sur l’expérience utilisateur a aussi un impact sur le référencement naturel.
Toutefois, on voit bien que ce n’est pas encore parfait, la preuve en est avec les filtres Panda ou Penguin qui pénalise notamment la sur optimisation et le linking « abusif ». Si la prise en compte de l’usage des liens était si bien prise en compte, Google n’aurait pas besoin de sortir un filtre qui vient compenser finalement les lacunes de son algorithme principal. La raison en est, comme déjà expliqué, la nécessité d’avoir suffisamment d’informations, mais aussi que Google ne peux pas se passer des autres critères de classement.