Quality Update, Phantom 2, que nous réserve le dernier update de l’algorithme de Google ?

Sans prétendre faire le tour du sujet, voici quelques points de vigilance qui pourraient vous aider à vous prémunir contre cette « menace Phantom ».

Début mai, plusieurs sites constataient une chute de leur trafic organique. Dans le plus grand secret, Google avait lancé fin avril une profonde mise à jour de son algorithme sur la qualité du contenu, qu’il a finalement confirmé mi-mai. Google conforte ici sa volonté de proposer un contenu toujours plus pertinent et qualifié aux internautes, et pénalise alors les sites dont il juge la qualité trop faible.

On observe que certaines pratiques sont donc davantage sanctionnées. Sans prétendre faire le tour du sujet, voici quelques points de vigilance qui pourraient vous aider à vous prémunir contre cette « menace Phantom » :

·     Le poids des facteurs individuels VS catégorie de site ?

D’abord baptisée Google Phantom 2 en raison du mystère qui planait autour de cette mise à jour, elle a finalement été nommée Quality Update par Barry Schwartz de Search Engine Land : il ne s’agit pas là d’un simple filtre Penguin ou Panda, mais bien d’une modification au cœur de l’algorithme de ranking, et de la manière dont la qualité est évaluée. Pour le moment, Google reste discret et n’a pas encore communiqué sur les facteurs pris en compte. On sait de fait, que la qualité des pages est généralement estimée selon différents facteurs individuels comme le webdesign, la richesse sémantique ou encore l’absence d’excès de publicité. En prenant en compte ces derniers,  on peut penser que le nouvel algorithme donne à présent un poids plus significatif à certains d’entre eux, et moins à d’autres. Google affirme cependant, que cette mise à jour ne vise pas une catégorie précise de site : alors que certains sites « How To » ont perdu en visibilité (comme HubPages ou WikiHow), d’autres ont gagné en trafic (Epicurious ou Quora). L’algorithme prend en compte la qualité des contenus, mais également les efforts fournis pour améliorer et valoriser l’expérience utilisateur proposée.

 L’expérience utilisateur : pub, design et 404

Cela a été confirmé par les analyses de Glenn Gabe et de Searchmetrics : les pages avec trop d’annonces publicitaires sont pénalisées. Plus il y a de pubs - notamment les pop-ups -, plus l’expérience utilisateur est dégradée, ce qui aura un impact négatif sur la page. Cela concerne aussi les vidéos à lecture automatique, très intrusives pour les utilisateurs. Un conseil : évitez les formats d’annonces les plus ennuyeux (pop-ups, vidéos automatiques…), et trouvez le bon équilibre entre l’UX (l’expérience utilisateur) et la monétisation.

L’expérience utilisateur passe aussi par le design du site. Les pages sans design ressembleraient trop à des pages spams et seront donc pénalisées par l’algorithme. Searchmetrics a constaté qu’un certain nombre de sites qui avaient un bon contenu mais un design faible, auraient perdu plus de 30% de leur ranking. 

Enfin, les erreurs 404 sont pénibles pour l’utilisateur, puisqu’il ne trouvera pas directement le contenu recherché. Google considère aussi qu’un site comportant un nombre excessif de 404, n’est pas correctement maintenu et le pénalisera.

·     Le poids toujours plus important de la qualité du contenu

Plusieurs types de pages ont été pénalisés. C’est notamment le cas des pages avec des contenus trop courts et des propositions de contenu additionnel de mauvaise qualité : par exemple, certains sites e-commerce avec beaucoup de visuels mais peu de contenu se sont trouvés pénalisés. Il en est de même pour les pages de listing vidéo ou à scroll sans thématique précise qui aura également un impact négatif puisqu’elles produisent par définition très peu de contenu textuel.

Il est nécessaire d’enrichir son contenu, d’offrir une analyse approfondie à ses visiteurs, et montrer que l’on connaît son sujet : pour Google cela passe par un contenu sémantique riche et une attention particulière portée aux mots. Attention cependant de ne pas négliger les TF/IDF, Cosinus de Salton, ou autre LDA, qui sont des algorithmes permettant de mesurer la pertinence d’un mot par rapport à la globalité d’un texte. Par ailleurs il est recommandé de paramétrer ses liens en nofollow, notamment pour les publicités  ou contenus additionnels qui pourraient pointer vers des contenus de piètre qualité.

D’ailleurs, Google voit d’un mauvais œil la présence de trop nombreux liens, internes ou externes, surtout s’ils sont condensés à un seul endroit avec des ancres exactes. Cela ne paraît pas naturel, ne facilite pas la lecture de l’utilisateur et peut même être assimilé à du spam.

Enfin les pages contenant du contenu dupliqué sont aussi pénalisées. Ce dernier type de page peut correspondre à celles produites par les utilisateurs, notamment les sites « How To » car ces utilisateurs ont souvent tendance à copier du contenu qu’ils trouvent sur d’autres sources.

Pourtant, il existe une situation où, même si votre contenu est extrêmement riche et qualitatif, votre page peut être pénalisée. La raison ? L’affichage des commentaires. En effet selon Searchmetrics, un grand nombre de commentaires pourrait avoir un impact négatif sur une page. On ne sait pas encore actuellement si l’algorithme de Google distingue le contenu principal d’une page et les commentaires, dont on ne contrôle pas forcément la qualité. Ainsi, des pages avec un contenu de plus de 1000 mots mais avec des commentaires représentant 60% du contenu se sont trouvées pénalisées.

Sortir de la pénalité : retravailler le site dans son ensemble

Selon Google, l’algorithme vise seulement les pages de mauvaise qualité et non pas, le nom de domaine. Cependant, si le site comporte beaucoup de pages avec un contenu de faible qualité, cela portera préjudice au site, et le domaine en sera forcément affecté. Pour John Mueller, Web Master Trends Analyst chez Google, pour se remettre d’une pénalité Phantom, il faut travailler à améliorer le contenu du site sur le long terme. Pour améliorer son positionnement à nouveau, il sera peu efficace de concentrer ses efforts à réparer des problèmes techniques sur une seule page. C’est donc bien le site dans son ensemble, qu’il faudra retravailler : améliorer l’UX, retravailler tout son contenu, diminuer le nombre d’annonces, etc … et ainsi gagner la confiance de Google sur le long terme.