SOS Google : les réponses du mois de juin

SOS Google : les réponses du mois de juin Vincent Courson, outreach specialist chez Google, répond à quatre questions posées en mai par les professionnels du search sur le linking et l'utilisation de Chromium par Googlebot.

Les référenceurs français ont de nouveau utilisé notre formulaire* pour interroger Vincent Courson, outreach specialist chez Google. Ce mois -ci, ils se sont questionnés sur la compréhension par le moteur de recherche des intentions de recherche, le maillage interne sur les pages AMP, le passage récent de Googlebot à la dernière version de Chromium pour comprendre le rendu HTML des pages d'un site et encore les recommandations de Google concernant les PBN (Private Blog Network) pour obtenir des backlinks payants. 

Vincent Courson, outreach specialist chez Google. © VC

Sur certaines requêtes, comme des questions ou des définitions, il y a, parmi les résultats les mieux positionnés, des URLs avec un contenu très court (juste une phrase ou deux) ou au contraire, très très long, avec plusieurs milliers de mots. Comment deux contenus aussi différents peuvent-ils être assimilés à une même intention de recherche ?

Vincent Courson. Effectivement, un moteur de recherche doit essayer de comprendre l'intention de recherche de son utilisateur pour lui donner exactement la réponse qu'il cherche. Malheureusement, bien souvent la question exacte de l'internaute n'est pas 100% claire pour le moteur. Dans de tels cas, plutôt que de ne lister que des résultats correspondant à une intention de recherche unique et précise, le moteur peut parfois décider d'également inclure des documents répondant à une légère variation dans l'intention de recherche. Ainsi, une SERP unique peut répondre à plusieurs variations d'une requête qui semble pourtant claire.

Regardons un exemple concret pour essayer d'être plus clair : l'internaute entre la requête "définition [un mot quelconque]." Il semble logique qu'il cherche à en savoir plus sur le mot en question. En revanche, le niveau de détail que l'internaute recherche n'est pas explicite : cherche-t-il une définition d'une phrase pour un mot qu'il ne connaît pas ? Cherche-t-il à confirmer une nuance très spécifique d'un terme scientifique qui lui est déjà familier ? Cherche-t-il l'origine sémantique du mot en question ?

Ainsi, ce cas illustre bien que l'intention "générale" de la recherche semble claire, mais qu'il peut y avoir de nombreuses nuances qui influencent le type de résultats qui peuvent satisfaire l'internaute. Ainsi le moteur pourra décider d'inclure différents types de pages dans la SERP, avec des contenus ayant divers niveaux de profondeur et de précision : de la simple définition en une phrase à l'article de fond détaillant le concept associé au mot, son histoire dans le langage, son application actuelle, etc...

Un autre exemple pourrait être "record du monde de [événement sportif]"

L'utilisateur recherche-t-il un simple chiffre ? Ou également le nom de l'athlète et l'endroit où le record a été enregistré ? Ou encore l'historique complet des records successifs de la discipline ? Pour pallier ce manque d'information sur le niveau de profondeur recherché par l'utilisateur, la SERP peut inclure des documents répondant à chacun des niveaux de détail cités ci-dessus.

Je profite de cette question pour aborder un point sous-jacent, sur lequel nous sommes souvent interrogés : le nombre de mots des contenus pour le SEO. Il n'y a pas de recommandations spécifiques sur un nombre de mots qu'il serait important d'écrire pour favoriser des bons positionnements. Parfois un long article fouillé répondra à la question de l'internaute, mais parfois une simple phrase suffira. Parfois, même pas besoin de texte, une image valant apparemment 1 000 mots ! (Et non, ça ne veut pas dire : "Google a dit qu'il fallait faire 1 000 mots par article").

Le maillage interne depuis/vers la version AMP d'une page a-t-il son importance, puisque les bots crawlent déjà très bien ces pages ?

Vincent Courson. Revenons sur le maillage qu'il est recommandé de mettre en place sur des pages AMP.

Premièrement, si une page AMP (Accelerated Mobile Pages) héberge un contenu qui se trouve également sur une page dite classique de votre site, il faut relier ces deux pages avec des balises <link> réciproques dans les en-tête des deux pages. Ce faisant, on déclare une "page AMP" et une "page canonique" et Google peut comprendre que le contenu est le même sur les deux pages, et ainsi éviter le contenu dupliqué dans les SERPs. Les détails de l'implémentation sont sur le site AMP Dev, la mise en place est relativement simple. A noter que si vous n'hébergez un contenu que sur une page AMP, une simple balise link canonique vers cette page suffit.

Ensuite, si je comprends bien la question d'origine, il s'agit de savoir si l'on doit faire des liens entre les pages AMP d'un site, ou si avoir des liens depuis une page AMP vers le site "traditionnel" est suffisant. Pour y répondre, je reviendrai vers la raison même de l'existence d'AMP : fournir du contenu de manière extrêmement rapide aux internautes. Si d'autres pages existent au format AMP sur le site et qu'elles peuvent intéresser le lecteur, alors les linker depuis les autres pages AMP a du sens, et permet au visiteur de continuer sa navigation en profitant des temps de chargement de la techno AMP.

Au delà de l'aspect "vitesse de navigation", utiliser de tels liens entre page AMP pour "optimiser le crawl" n'est pas utile : les pages AMP sont en effet déjà bien explorées par Googlebot de manière générale quand les balises link abordées précédemment sont bien en place.

Enfin, au-delà des liens facilitant la navigation interne entre pages AMP, des fonctionnalités peuvent être mises en place pour améliorer l'engagement de l'utilisateur sur le site. Ainsi, plus forcément besoin de renvoyer l'internaute vers le site traditionnel pour lui faire effectuer des actions comme s'abonner à une newsletter, par exemple. La liste de ces fonctionnalités est consultable sur cette page du site AMP (en anglais), et inclut des éléments comme amp-sidebar, amp-access, ou encore amp-form.

Google a annoncé que Googlebot passe de Chrome 41 à la dernière version de Chromium. Quel impact cela peut avoir sur le positionnement des sites sur les SERPs ?

Vincent Courson. En effet, l'annonce officielle est consultable sur le blog Webmaster officiel. En résumé, lorsque Googlebot crawle un document, il cherche à voir le contenu de la page tel qu'un utilisateur le verrait dans son navigateur. Le but est de s'assurer que le contenu consulté par l'internaute est le même que celui consulté par Google. Ainsi, le robot d'exploration agit plus ou moins comme un navigateur : il interprète le code de la page web en utilisant un moteur de rendu HTML.

Jusqu'à récemment, lors du crawl d'un document, Googlebot utilisait le moteur de rendu d'une version relativement ancienne du navigateur Chrome. Cela voulait dire que certaines pages utilisant du code moderne (des standards mis en place après la vieille version de Chrome qui était utilisée) pouvaient ne pas être interprétées correctement par le robot. Désormais, Googlebot utilisera la version la plus récente de Chromium pour effectuer le rendu des pages web lors de l'exploration !

Pour les webmasters et SEOs, c'est une excellente nouvelle ! Cela veut dire que les cas où Google n'arrive pas à comprendre le contenu d'une page devraient devenir plus rares. Ainsi, il se pourrait que vous voyiez une augmentation de visibilité dans les SERPs pour certains documents qui jusqu'à présent n'étaient pas interprétés correctement par Google.

Ce changement au niveau de Googlebot n'a pas vraiment de répercussions sur le travail d'un référenceur (alors qu'il peut changer beaucoup de choses pour un développeur web). Nous continuons de recommander d'utiliser l'outil d'inspection d'URL de la Search Console afin de voir comment Googlebot interprète un document lors du crawl ; en particulier la fonctionnalité "Inspecter en direct une URL" puis "Afficher la page explorée" qui permet de consulter une capture d'écran de la page telle que vue par Googlebot.

A noter qu'au moment de la publication de cet article, l'outil d'inspection d'URL ne reflète pas encore ce changement de moteur de rendu du Googlebot, mais cela devrait être le cas prochainement.

Quelle est la position de Google sur les PBN (Private Blog Network : réseau de sites Internet créés pour se faire des liens entre eux afin de favoriser le positionnement du site principal, au centre du réseau) ? Si on décide d'en utiliser un, alors quelles sont les préconisations de Google ?

Vincent Courson : Si l'on s'en tient à la définition donnée dans la question, les PBN semblent correspondre exactement à ce que nous considérons être un système de liens : "Tout lien destiné à manipuler le classement PageRank ou le classement d'un site dans les résultats de recherche Google peut être considéré comme faisant partie d'un système de liens et comme constituant une violation des consignes Google aux webmasters." Par conséquent, je déconseille fortement d'utiliser ce genre de solutions. :)

Les équipes anti-spam de Google prennent des actions contre de tels liens artificiels, à la fois de manière automatisée et avec des actions manuelles (et nous envoyons un message dans la Search Console lorsque nous prenons des actions manuelles pour cause de spam). Ainsi, plutôt que de risquer une telle pénalité, je me concentrerais plutôt sur les nombreux autres points d'optimisation d'un site, au premier rang desquels la qualité du contenu créé pour l'internaute.

*Pour comprendre ce que Google veut, il ne suffit pas de bien le connaître, il faut parfois lui parler. C'est ce que le JDN et Vincent Courson vous proposent chaque mois. Postez à tout instant vos questions. Les plus représentatives des thématiques qui intéressent les professionnels seront sélectionnées et envoyées à l'expert. Voici ses réponses, sans filtre.