Sebastien Monnier (Woptimo) "En référencement naturel, certains backlinks peuvent être toxiques"

Faut-il toujours croire Google en matière de référencement ? Comment interpréter ses dernières annonces ? Un ancien de la Search Quality Team du moteur, aujourd'hui à la tête de l'agence Woptimo, donne ses conseils.

JDN Solutions. Votre agence est entre autres spécialisée dans la création de liens, en vue d'améliorer le référencement naturel grâce aux backlinks. Il est bien tentant d'acheter ces derniers... Or, Google déconseille ces pratiques dans ces consignes. Quelle est votre position sur ce thème, en tant qu'ancien salarié de la Search Quality Alliance du moteur ?


Sebastien Monnier (Woptimo). De mon point de vue, il y a une différence entre acheter massivement des liens sur des plates-formes dédiées et spammées, et obtenir des liens de manière plus respectueuses des consignes de Google. Par exemple, envoyer son produit à certains blogueurs bien choisis pour qu'ils écrivent dessus en ajoutant un lien dans leur billet ne constitue pas, à mon sens, une pratique contraire aux règles de Google, qui ne sont d'ailleurs pas parfaitement claires au sujet des liens achetés et leur définition.


Avoir des liens dans certains types d'article dits sponsorisés peut ne poser aucun problème. D'ailleurs, il est parfois difficile de percevoir la différence : certains articles semblent être sponsorisés alors qu'ils ne le sont pas... Il est d'ailleurs impossible, surtout pour le moteur, de savoir ce qui a été conclu avant la publication d'un contenu.

En revanche, la récente campagne de billets sponsorisés vantant Chrome, et réalisée par une agence pour Google est au contraire un exemple à ne pas suivre. De ce que j'ai pu en voir, les billets sponsorisés avaient un contenu très pauvres, de moins d'un paragraphe. Mais en plus, ils n'avaient aucune cohérence avec le reste des blogs sur lesquels ils étaient postés. Je ne l'aurais pas fait [NDLR suite à cette affaire, Google s'est d'ailleurs vu obligé de pénaliser le référencement d'un de ses sites promu par ces billets sponsorisées].

Je pense que l'utilisateur doit être au centre de la réflexion SEO. Si le lien a un intérêt pour l'utilisateur, finalement peu importe comment il a été obtenu. Autre critère très important à mes yeux : les backlinks obtenus donnent-ils envie à l'internaute de cliquer dessus ? Si la réponse est négative, mieux vaut alors s'en passer. Aujourd'hui, l'achat de visibilité à travers les liens est une réalité pour le référencement dans de nombreux secteurs. Il faut établir des partenariats avec des sites ou des blogueurs, que ce soit par échange d'argent, de services rendus ou de contenus originaux. Sans partenariat intelligent ou de communication efficace, vous risquez fort de voir votre site être dépassé dans les SERP par des sites qui, eux, déploient les moyens nécessaires pour acquérir de la visibilité et de la notoriété.

"Cela peut prendre plus d'un an, pour qu'un site soit pénalisé à cause de ces liens toxiques"

Vous avez cependant pu lier certaines pénalités de Google à des abus de "netlinking" ?

Certains liens peuvent en effet être qualifiés de toxiques, et entrainer des pénalités. Quand Google a pu, de manière automatisée, réunir assez d'éléments, liés à des anomalies statistiques par exemple, des vérifications manuelles de la Search Quality Team peuvent venir confirmer les soupçons : les liens douteux pourront alors entraîner des pénalités, même si ces dernières ne seront pas toujours flagrantes. Cela peut prendre plusieurs mois, voire plus d'un an, pour qu'un site soit pénalisé à cause de ces liens toxiques. Ces pénalité, comme les autres pénalités, sont donc alors personnalisées, car associées à une pratique et un site précis, et restent donc finalement, quelque part, des exceptions au sein de l'algorithme.
 

Je précise par ailleurs que le "spam report" n'est pas la première source d'informations permettant à la Search Quality Team de détecter les sites et liens de type spam à pénaliser. D'abord, parce qu'il n'y pas énormément de spams signalés par ce biais, ensuite parce que beaucoup d'internautes s'en servent de manière abusive. Ce n'est donc pas une source d'information fiable.

Ensuite, j'ai eu l'occasion de vérifier la réalité de cette pénalité lors des audits que j'ai pu réaliser. Le Google Webmaster Tools et d'autres outils comme Majestic SEO fournissent les backlinks qu'il faut ensuite analyser presque un par un. Cela permet de repérer ces liens toxiques. Après les avoir enlevés pour certains sites, j'ai pu observer que les pénalités étaient levées.

Avec Panda, d'après Google, une partie d'un site qui serait de mauvaise qualité pourrait entrainer une pénalité sur tout le site. Avez-vous observé ce type d'action, et quel seuil de mauvaise qualité faudrait-il, selon vous, ne pas dépasser sur un site ?

Panda est en effet une pénalité qui s'applique à un domaine. J'ai pu le constater. Quant au seuil à ne pas dépasser, c'est difficile, pour ne pas dire impossible de répondre précisément à cette question. Mais, la vigilance doit d'abord, à mon sens, se concentrer sur les pages les plus consultées et sur leurs taux de rebond. S'il faut vraiment donner un chiffre, disons que si plus d'un quart d'entre elles proposent du contenu de faible qualité, et génèrent un fort taux de rebond, alors le site s'expose à une pénalité Panda. Ce n'est évidemment qu'une estimation.

Google a récemment multiplié les annonces concernant des sanctions qui s'abattraient sur des sites abusant de la publicité. Est-ce nouveau et là encore, selon vous, quelles sont les limites à ne pas franchir ?

Je pense qu'il faut avoir deux approches : la première doit se concentrer sur l'aspect graphique, l'autre sur le taux de clic. Google peut désormais savoir où se trouve le contenu dans une page et utiliser cette information. Ainsi, des liens en footer peuvent avoir moins d'impact que d'autres, situés au cœur de la page par exemple. C'est aussi grâce à cette aptitude que le moteur peut se rendre compte d'un trop grand nombre de publicités au-dessus de la ligne de flottaison.

Deuxième volet à étudier : le taux de clic, et la mesure du trafic, surtout celui lié aux publicités Adsense ou à l'affiliation. Google n'aime pas qu'un site soit un simple "passe plat" en ne servant qu'à canaliser du trafic vers des tiers. Et si ces derniers n'ont, en plus, aucun rapport avec le site d'origine, c'est encore un autre mauvais signal.

"Matt Cutts serait peut être un mauvais SEO"

En revanche, pénaliser des sites abusant de la publicité n'est pas nouveau. Loin de là. C'était même peut-être l'une des premières sanctions mises en place par Google. Cependant, le moteur semble en effet vouloir durcir ses règles à ce sujet.

Vous qui avez travaillé en Irlande pour la "Search Quality Team" du moteur, et qui exercez aujourd'hui comme responsable SEO, faut-il vraiment croire tout ce que dit Google ou Matt Cutts ?

Première chose que je voudrais signaler, c'est que Matt Cutts s'y connaît très bien techniquement, c'est pointure. En revanche, sa mission est de lutter contre le spam dans les pages de résultat. Ce n'est donc pas tout à fait le même travail que celui réalisé par des référenceurs. D'ailleurs, peut-être que Matt Cutts ne serait pas le meilleur référenceur... En tout cas, dans ce qu'il dit aux référenceurs, il n'y a jamais rien de tout à fait faux. Mais par exemple, lorsqu'il parle de netlinking, et du fameux linkbaiting, cela semble facile, mais parfois je voudrais bien voir comment il appliquerait cette théorie dans le monde réel...

Matt Cutts connaît-il "la formule magique" de l'algorithme et ses soi-disant 300 critères de classement ?

Il n'y a pas de formule pouvant résumer le fonctionnement du moteur. C'est un écosystème en perpétuel mouvement, auquel sont sans cesse ajoutés de nouveaux éléments, par exemple les signaux du bouton +1, qui devraient bientôt plus peser. Quant aux 300 critères, cela a été dit, je pense, surtout pour simplifier et pour faire comprendre qu'il n'y avait pas que le PageRank d'important.

A votre avis, les signaux sociaux, le partage sur Facebook ou Twitter, le bouton "j'aime" sur les sites... vont-ils avoir les même impacts, voire remplacer les backlinks ?

Bonne question. Je pense que cela ne remplacera pas les backlinks, car ils restent un bon signal à prendre en compte. D'ailleurs, de nombreux tweets restent finalement des liens, même s'ils sont en nofollow.

Je ne crois pas que le moteur de Google passera au "tout social", et encore moins d'un coup. D'abord parce que les risques de spam sont grands, même si Mountain View peut aujourd'hui facilement détecter les faux profils sur les réseaux sociaux artificiellement créés. Ensuite, si transition il y a, elle ne se fera pas de manière brutale, Mountain View devrait plutôt abaisser progressivement la puissance du signal émis par les liens. C'est ainsi que procède généralement Google.

Récemment, Google a annoncé avoir révisé la manière dont il prenait en compte les liens, sans donner plus de détails. Selon vous, comment faut-il interpréter cette annonce ?

Effectivement, Google a signalé une cinquantaine de mises à jour rien qu'en mars, dont deux très significatives qui concernent les liens et la prise en compte des ancres. Cela annonce la fin progressive de certains "mauvais liens", aux ancres peu naturelles, un peu trop parfaites et répétées par exemple.  Certains liens artificiels, comme ceux dans les footers, vont être moins pris en considération par le moteur.

Sébastien Monnier a commencé sa carrière dans la recherche en linguistique et l'enseignement. En 2006, il part à Dublin pour rejoindre l'équipe Qualité de recherche de Google. Là, il est en charge du respect des recommandations Google par les référenceurs : il manie au quotidien pénalités et ajustements algorithmiques. Il devient aussi membre de l'équipe Google Analytics où il s'occupe du support francophone. En 2009, Sébastien Monnier rentre en France pour diriger la branche parisienne d'une agence de référencement. Il quitte cette agence en 2010  pour créer sa propre agence de Web Analytics, référencement et ergonomie web : Woptimo. En octobre 2011, il fonde avec d'autres anciens employés de Google la Search Quality Alliance, avec notamment Alfonso Verdugo, qui a lancé en 2004 la Search Quality Team du moteur de recherche.