Pourquoi il ne faut plus avoir peur des mises à jour de Google

L’analyse des mises à jour de Google montre une cohérence dans ce qu’il cherche à punir, mais aussi à promouvoir. Mieux comprendre ce que veut le moteur aide à rester confiant face à son jugement, qui apprécie le mérite et bon sens.

Comment avoir encore peur des mises à jour de Google ? La question peut sembler provocante, surtout aux yeux de ceux qui en ont été victimes, et qui ont pu être sanctionnées parfois durement, voire injustement, par le moteur. Pourtant, cette question, volontairement provocante, mérite d’être posée, après avoir analysé le sens des mises à jour déployées par le moteur ces dernières années. Car Google suit une logique, qu’il suffit de comprendre pour s’éviter d’être dans son viseur.

Regardons de plus près les modifications, ou plutôt les améliorations qu’a apportées Google à son algorithme, ces dernières années.

Ce qu’il faut retenir de Panda

Commençons avec Panda. Sa cible : le contenu de mauvaise qualité. Plus exactement, les textes en mauvais français, truffés de fautes d’orthographe ou mal traduits, ou encore sans valeur, ou dupliqués, étaient dans son viseur. Bien sûr, c’est un peu caricatural, et il a pu y avoir des effets de bords, avec des victimes collatérales. Mais dans l’idée, cette mise à jour a voulu améliorer la qualité des résultats en évitant que du contenu de mauvaise qualité se hisse en haut des résultats.

C’est facile à comprendre : si l’internaute tombe trop souvent sur ce type de contenu de mauvaise qualité, il finira par se dire que Google fait mal son travail, et trouvera vite un autre moyen d’accéder aux informations qu’il recherche (en utilisant un autre moteur, ou en demandant à ses contacts sur les réseaux sociaux par exemple).


Penguin a été déployé pour la première fois en 2012. Sa dernière mise à jour importante remonte à septembre 2016, lorsqu’il a été intégré au cœur de l’algorithme

Ce qu’il faut retenir de Penguin

Penguin, de son côté, a voulu sanctionner les abus de netlinking. Ce qui est “abusé” aux yeux de Google, ce sont des liens générés automatiquement, des liens ostensiblement obtenus artificiellement, beaucoup trop nombreux ou beaucoup trop optimisés pour être naturels. Des liens qui parfois sont générés automatiquement, grâce à des outils d’origine douteuse. Des liens qui figurent sur des sites que personne ne visite, ni n’a envie de visiter. Au final, il s’agit bien souvent de liens sur lesquels personne n’a envie de cliquer (lire à ce sujet “6 pratiques que Google n’aime pas voir en 2017"). Franchement, glaner ce type de liens procure peu de satisfaction : c’est normal qu’au final ils procurent peu de résultats. Un lien est normalement un signal fort, comme un vote, mais ces liens de faible qualité ne veulent rien dire, ni pour les internautes, ni pour Google.

Comme pour les contenus truffés de fautes, de piètre qualité, il est difficile d’être fier d’avoir de tels liens, ou de soutenir qu’ils doivent mériter la reconnaissance de Google. Là encore Google a voulu, pour les mêmes raisons que celles évoquées plus haut, protéger la qualité des résultats : le moteur ne pouvait pas laisser de tels liens, si faciles à obtenir, pousser tout en haut des résultats qui auraient déçu l’internaute, car ils manquent de mérite.

C’est du bons sens. Pour protéger ses résultats, Google ne peut pas récompenser du contenu de mauvais qualité, mal écrit, voire plagié, pas plus que des liens dénués de sens, et trop facilement obtenus.


Une page officielle liste les pénalités manuelles de Google

Les pénalités manuelles que le moteur a mises au point suivent exactement la même logique, en fustigeant par exemple le “spam généré par l'utilisateur” ou “le contenu peu informatif qui ne présente que peu ou pas d'intérêt”. Les dernières mises à jour de Google vont dans le même sens.

Donner à Google ce qu’il veut

Que cherche Google ? A faire remonter des résultats pertinents. Commençons par donner à l’internaute du contenu pertinent, méritant, et travaillé pour répondre à ces attentes. Le contenu est roi, et de plus en plus. Les dernières mises à jour vont dans ce sens, que ce soit Hummingbird ou l'intelligence artificielle que Google injecte de plus en plus dans son algorithme, le moteur comprend de mieux en mieux les pages qu’il parcourt. Il évalue mieux, aussi, la qualité du contenu. En plus, parier sur un bon contenu, pertinent, c’est gagner, presqu’à coup sûr, des liens qui viendront récompenser son mérite. Des liens qui seront appréciés à leur juste valeur par le moteur. Pourquoi chercher à duper le moteur quand il récompense le bon sens et le travail bien fait ?

Ne pas se satisfaire d’un contenu pauvre ou de liens trop facilement obtenus, c’est commencer à faire du SEO durable. Chercher la satisfaction de l’internaute, c’est obtenir celle de Google. S’écarter de ces bonnes pratiques, c’est s’exposer aux pénalités, et donc, en avoir peur.