John Mueller (Google) "Nous allons faire des mises à jour importantes plus régulièrement"

Dans le cadre du SMX Paris, le JDN a interrogé John Mueller, webmaster trends analyst chez Google, sur les défis et les enjeux du search pour le moteur de recherche.

JDN. Combien de personnes travaillent sur l'algorithme de Google ?

John Mueller est webmaster trends analyst chez Google. © Google

John Mueller. Ce n'est pas défini, car lorsque l'on parle de code informatique, il y a beaucoup de petits éléments en jeu ! Globalement, plus de 100 000 personnes travaillent chez Google. Une large part sont des ingénieurs dédiés à divers projets qui se recoupent. Peu de personnes travaillent exclusivement sur le noyau de l'algorithme. Cependant, il y a des managers spécialisés, en particulier sur la partie positionnement, qui comprennent suffisamment l'algorithme pour trouver des solutions si on leur dit "pour cette requête, Google présente cette page au lieu de celle-ci, qui est plus pertinente". Ce n'est pas vrai que seule une machine comprend ce que fait Google.

Certains SEO craignent la disparition des liens bleus au profit des résultats enrichis et des publicités. Ont-ils raison ?

Non, je ne pense pas. Nous voulons aider les internautes à trouver les réponses à leurs questions, et le plus souvent, ces réponses ne tiennent pas en deux ou trois mots. Il faut consommer beaucoup de contenus pour comprendre quelle est la bonne réponse. Donc certes, certaines évolutions des SERP présentent plus de contenus, d'autres en présentent moins, mais dans tous les cas, les internautes cherchent des informations que nous ne pouvons pas remplacer. Nous devons prendre des extraits issus des sites web. C'est là que l'expertise se trouve.

Il y a eu plusieurs bugs d'indexation cette année chez Google. Est-ce que le web devient trop gros pour être crawlé et indexé ?

Ce n'est pas le web qui devient trop gros, c'est une question d'ajustement des infrastructures. La plupart du temps, personne ne remarque ces changements, parce que le web et le search continuent à fonctionner. Mais parfois, il y a de la casse. Sur les pages de live des sites d'actualités, par exemple, il faut crawler en permanence. Nous ne manquons pas d'espace de stockage, mais le web change et nos infrastructures avec.

Qu'est-ce que Bert, exactement ?

Bert est un type d'algorithme qui n'a pas été développé chez nous, mais par des chercheurs qui veulent comprendre le texte naturel et les connexions entre les mots. Google souhaite mieux comprendre d'un côté les requêtes, et de l'autre, les pages des sites. Donc il ne s'agit plus de modifier les positionnements, mais idéalement, d'offrir des résultats plus pertinents. Bert n'apporte pas de pénalité et ne va pas remplacer les anciens algorithmes mais vient en complément. C'est un système de machine learning que nous n'aurons pas besoin de coder manuellement pour lui indiquer quels mots vont ensemble. En revanche, il requiert plus de tests en amont.

Faut-il attendre plus de mises à jour dans les prochains mois ?

Il ne suffit pas de faire une mise à jour pour être tranquille. Donc oui, il va y avoir plus régulièrement des mises à jour importantes (core update, ndlr). Nos équipes sont conscientes qu'il y a les vacances, et qu'envoyer de gros changements juste avant Noël peut créer un mouvement de panique. D'un autre côté, lorsque les internautes font leurs recherches, peu leur importe que ce soient les vacances, ils veulent juste la meilleure réponse possible.

Des référenceurs disent avoir perdu des positions sur des sites de bonne qualité lors de la mise à jour de début novembre, confirmée par Google. Que s'est-il passé ?

Il nous est difficile de prédire quels mouvements les référenceurs vont percevoir et donc ce qui va les inquiéter. Chaque fois que nous réalisons un changement dans les positionnements, nous essayons d'évaluer combien de sites il va affecter et à quel point. Nous communiquons lorsque nous attendons de gros mouvements. Mais cette fois, nous avons considéré qu'il s'agissait de petits changements. Nous ne nous attendions pas à ce que les référenceurs le remarquent. Nous faisons des mises à jour tous les jours, qui passent inaperçues. Mais parfois, de tout petits mouvements affectent des sites dont le propriétaire est très actif sur Twitter. Nous ne souhaitons ni troubler les référenceurs, ni annoncer toutes les mises à jour, parce qu'il y en a trop et ce serait une panique incessante.

En ce qui concerne les changements de positionnement et la qualité des sites, il y a forcément des mécontents puisque certains sont perdants. En revanche, si un site nous contacte pour nous dire : "Sur cette requête, objectivement, les résultats sont vraiment moins bons maintenant", nous le transférons à l'équipe en charge du positionnement. Car si c'est une erreur, nous devons la réparer.

Pourquoi certains sites se positionnent très bien en se concentrant uniquement sur les backlinks ?

Pour chaque site, nous collectons et réunissons tous les signaux pour faire le tri. Or, pour certains sites, le contenu prend le pas, pour d'autre ce sont les liens. Il n'y pas toujours d'équivalence entre des sites concurrents. Par ailleurs, comme nous comprenons de mieux en mieux les pages, les signaux comme les backlinks, plus artificiels, sont de moins en moins pertinents.

Comment fait Google pour repérer un lien acheté ?

Nous nous basons sur l'image générale du linking des sites car l'analyse des URL des liens n'est pas concluante. Même manuellement. Si soudain, un site reçoit plusieurs liens d'un site d'actualités, avec des ancres chargées de mots-clés, c'est bien plus visible. C'est donc là-dessus que nous nous concentrons, et l'algorithme aussi. Lors d'une action manuelle, si nous avons un doute sur certains liens mais que la majeure partie des liens est hors de soupçon, nous laissons passer. Si l'image générale du site nous montre que les liens sont localisés, et peu variés, alors nous agissons.

Allez-vous ajouter un filtre sur les requêtes vocales dans la Search Console ?

Non, pas prochainement. Ce serait très bien, mais nous ne savons pas délimiter le contenu qui servirait de base de données. Dans les études, j'entends souvent que la moitié des recherches se font en vocal, mais cela inclue le paramétrage d'un réveil, la lecture de musique, la météo. Techniquement, c'est de la recherche vocale, mais ça ne génère pas de résultats web. Combien de recherches vocales sont faites, montrant du contenu de pages web, combien d'impressions des URL ? Lorsque nous comprendrons mieux les requêtes et les pages, cela se traduira dans la Search Console.

John Mueller occupe le poste de webmaster trends analyst chez Google depuis 2007. Ingénieur en robotique de formation, il prend souvent la parole pour Google auprès de la communauté SEO internationale.