Avis des SEO : Google prend-il en compte le trafic des sites ?

Avis des SEO : Google prend-il en compte le trafic des sites ? Google se sert-il de Chrome ou Google Analytics pour classer les pages dans ses résultats ? Le JDN a posé la question à quatre spécialistes du référencement. Voici leur avis, et leurs arguments.

Ce sont des questions que les référenceurs se posent vite, obligatoirement : le trafic d'un site est-il pris en compte pour son SEO ? Google utilise-t-il des informations obtenues par Chrome, ou par Google Analytics, pour classer les pages dans ses résultats ? Le JDN a posé ces questions, telles quelles, à quatre référenceurs, en leur demandant, bien sûr, d'argumenter leur réponse, et surtout, de bien partager les éventuelles preuves, ou coïncidences troublantes qu'ils auraient pu observer. Ils étaient également invités à expliquer les impacts que leur réponse avait sur leur travail. Voici ce qu'ils ont répondu.

Madeline Pinthon (iProspect) : "Google utilise plusieurs critères d'usage pour classer les pages"

Madeline Pinthon est consultante SEO chez iProspect. © DR

"Si un site est bien positionné, il obtiendra plus de trafic, c'est tout l'enjeu du SEO. Mais si un site a beaucoup de trafic, sera-t-il mieux positionné ? J'en doute.

Google ne peut pas utiliser le trafic en tant que tel, et les données de Google Analytics n'influencent pas le SEO. Si c'était le cas, ce serait biaisé car beaucoup de gros sites n'utilisent pas Google Analytics. De plus, ces données peuvent être soumises au spam, car il peut y avoir du trafic fantôme. Les données de trafic brut ne peuvent donc pas être liées au SEO.

Par contre, Google peut prendre en compte les données concernant les clics, et les taux de clic dans les résultats de recherche. Toutes les données présentes dans la Search Console peuvent être utilisées. 

Google a également une autre donnée à disposition (qu'il donne de moins en moins) : les volumes de recherche. Si une marque est recherchée, c'est un signe de notoriété et d'autorité. Or, pour évaluer les pages, Google prend en compte le niveau d'expertise, d'autorité et de confiance (Expertise, Authoritativeness, Trustworthiness). Pour la confiance, le taux de clic ajouté au pogosticking peuvent être des indicateurs de fiabilité. Chrome et la Google Toolbar peuvent également fournir des informations sur le comportement des utilisateurs.

Si Google ne prend pas en compte le trafic, il utilise plusieurs critères d'usage pour classer les pages. Du coup, il est important de travailler les taux de clics via les title, les meta descriptions mais aussi la notoriété et la réputation d'un site pour favoriser le SEO.

Par ailleurs, j'ai vu plusieurs sites qui, après avoir fait des campagnes média, ont vu leur référencement s'améliorer. La campagne a permis d'augmenter les volumes de recherches, donc les impressions. Le taux de clic s'est également amélioré, et les positions aussi. Après la campagne, le soufflet est retombé mais il y a eu un effet cliquet : les positions sont restées légèrement meilleures."

Kevin Richard est consultant SEO indépendant © DR

Kevin Richard : "Il ne faut pas être naïf"

"Google a énormément de moyens à disposition pour détecter le trafic d'un site : le navigateur des utilisateurs, Google Analytics (qui est l'outil de statistiques le plus utilisé au monde), mais également les serveurs DNS (8.8.8.8 et 8.8.4.4), en passant par AdSense ou tout simplement ses SERP. La vraie question est : pourquoi Google s'empêcherait d'utiliser ces données, anonymisées ou pas, alors que cela peut lui apporter un éclairage sur le web complètement différent du simple crawl, et que ça lui confère un avantage concurrentiel incroyable ?

Cependant, je n'en ai aucune preuve formelle. A plusieurs reprises, j'ai constaté l'indexation de liens qui avaient été envoyés par e-mail, ou bien des sites qui étaient montés dans les classements suite à une grosse campagne d'e-mailing, donc sans aucun élément "crawlable" par Googlebot. Et le fait que Google utilise les données de trafic pour ne surtout pas passer à côté d'un gros buzz en cours, cela fait partie des choses qu'un très grand nombre de référenceurs ressentent, sans pouvoir précisément l'étayer, même après l'analyse des dialogues réseau via Wireshark, Little Snitch, etc.

Sans vouloir verser dans la théorie du complot, il ne faut pas être naïf : il est tout de même troublant que Google ait autant insisté pour imposer Chrome, et en faire le navigateur le plus utilisé, alors qu'il ne lui rapporte strictement rien. D'habitude, Google est bien plus prompt à 'tuer' les projets qui ne lui rapportent rien, même s'ils sont utiles.

En réalité, avec le web social, Google a réalisé qu'il allait passer à côté de l'essentiel du web, et que si Facebook ou Twitter l'empêchaient de crawler, il se retrouverait à terme avec 80% du web invisible à ses yeux. Il a lancé Google Buzz en se disant 'si ça se partage ailleurs, ça se partagera aussi chez nous' mais comme la mayonnaise n'a pas pris, Google s'est dit qu'en contrôlant un navigateur, il réglait le problème définitivement : il verrait tout ce que voit l'user.

Conclusion, il faut sortir du simple travail d'optimisation technique/contenu : il faut faire un site qui "accroche" les gens, qui montre à Google qu'il est l'autorité sur un sujet particulier, et ne pas hésiter à lancer des opérations hors SEO (AdWords, pub Facebook) voire hors web (pub TV, coupon)."

Aymeric Bouillat (Resoneo) : "Google utilise des informations recueillies sur le comportement de l'internaute"

Aymeric Bouillat est consultant SEO chez Resoneo. © DR

"Un site peut avoir beaucoup de trafic généré via des requêtes de marque ou via les réseaux sociaux, mais cela ne veut pas dire qu'il sera forcément bien positionné sur des requêtes plus 'longue traîne'. 

Par contre, Google utilise des informations recueillies sur le comportement de l'internaute pour classer ses résultats. Par exemple sur les taux de rebond : une personne qui reste longtemps sur une page web à partir d'un résultat Google est un indicateur de qualité.

Concernant Google Analytics, je ne pense pas que Google utilise des données en provenance de cet outil pour classer ses résultats. Il s'agit d'une entité spécifique, séparée de la partie Search. Par ailleurs, le spam referer le montre assez bien : il est assez simple de manipuler les données de Google Analytics. Si Google utilisait ces données, il serait plus aisé de se positionner en trichant ! Mais Google peut utiliser des données de Google Analytics pour démasquer des réseaux de sites qui utilisent le même compte Analytics (UA), et déclencher des pénalités.

Quant à Chrome, Google utilise un certain nombre d'informations pour modifier les SERP via la recherche personnalisée. On pourrait aussi supposer que Google se base sur les flux de trafic pour chasser les mauvais liens, par exemple ceux qui sont souvent présents mais jamais cliqués… Ce qui est sûr, c'est que Google classe de plus en plus les résultats en fonction du contexte (localisation, device, historique...), pour interpréter et désambiguïser des requêtes, et mieux servir l'internaute et le garder dans son environnement, par exemple avec des pages au format AMP. Un livre blanc, officiel, sur la confidentialité dans Google Chrome permet aussi de savoir ce que Chrome fait dans votre dos : http://bit.ly/lbchrome."

Yann Sauvageon (Search-Foresight) : "Le trafic d'un site n'influence pas directement le positionnement"

Yann Sauvageon est directeur de l'expertise chez Synodiance, agence récemment rachetée par Search-Foresight. © DR

"La réponse la plus courte et la plus simple est que le trafic d'un site n'influence pas directement le positionnement du site en question. La simple donnée du volume de trafic est tellement facilement manipulable qu'il serait risqué pour les moteurs de s'appuyer directement sur cette donnée. La martingale est trop belle pour exister : quelques euros investis en affiliation ou RTB nous permettraient de ranker ? Douce illusion...

Quant à la question de savoir si Google utilise des données issues de Chrome ou Analytics pour influencer directement le ranking, là aussi, tout laisse à croire qu'il ne le fait pas. L'objectif de l'algorithme est de s'appuyer sur des données universellement accessibles : le contenu et les liens le sont. La donnée de trafic l'est beaucoup moins. Chez Search-Foresight, nous travaillons pour des grands comptes qui investissent des budgets importants en communication et en RP, notamment en télé et radio, avec des impacts trafic qui sont flagrants dans leurs Analytics, et sans que nous ayons pu identifier un lien de causalité clair et direct entre trafic et ranking. 

Il n'en reste pas moins que les informations que Google cumule via ses services (Chrome, Google Analytics...) sont des informations importantes. Elles sont utilisées pour personnaliser les résultats utilisateur par utilisateur. Et surtout, elles peuvent permettre de confirmer ou d'infirmer la viabilité d'une mise à jour de l'algorithme. Ces feedbacks implicites sont très probablement des informations que Google récolte pour ajuster ses résultats, dans une logique d'expérimentation et d'évaluation, sans qu'il n'y ait une relation directe entre un site et ses positions.

Et si, parfois, nous avons observé une corrélation entre trafic et positions, celle-ci se justifiait, dans la grande majorité des cas, par l'augmentation des requêtes sur un sujet d'actualité entraînant une remontée temporaire des positions, car les requêtes demandent de la fraîcheur, selon le fameux principe de Query Deserves Freshness ou QDF. Le trafic n'étant qu'une conséquence de ce QDF... et non la cause."