Pénalités sur Discover : comment les éviter ?
Attention, cœurs sensibles s'abstenir. Discover, c'est le roi du "up" and "down". La fonctionnalité de recherche Google fait passer les pages de sites d'un SEO de plusieurs milliers de vues en une journée à quelques dizaines le lendemain, avec la perte de monétisation associée.
Ces derniers temps, il y a eu peut-être plus de "bas" que de "haut" pour les éditeurs de sites SEO. En effet, la firme de Mountain View a mis en place une vague de pénalités manuelles, ce qui n'était arrivé depuis un moment. Sylvain Deauré, co-fondateur de 1492.Vision, un outil dédié à l'analyse de Google Discover, pointe : "Google peut utiliser du feedback humain et des quality raters pour filtrer une nouvelle menace. Il reste des cas où le machine learning n'est pas encore capable de remplacer sans effet de bord l'humain. On va donc conserver des actions ou des validations manuelles pour éviter les faux positifs."
Cette recrudescence d'actions interviendrait en partie suite à divers enquêtes médiatiques sur les sites générés par IA et référencés sur Discover. En cause, principalement, des problèmes de présentation du contenu, d'absence de transparence sur l'éditeur ou l'auteur, ou encore des pratiques trompeuses. La pénalité peut amener un site à disparaitre du jour au lendemain. "Dans le cas des dernières pénalités, il s'agit de sites qui ont clairement dérivé vers la publication massive de fake news pour faire le buzz et capter du trafic, avec un véritable succès d'audience", confirme Clément Pessaux, cofondateur de Discover Partners. "Ces sites sont devenus très visibles, attirant ainsi l'attention de tous, y compris de Google, qui a décidé de les exclure de Discover." Il soupire : "C'est toute la problématique de Discover aujourd'hui. Une très petite minorité de sites pousse le curseur trop loin, dégradant par amalgames et raccourcis l'image globale de Discover. Les équipes de Google en sont parfaitement conscientes, c'est pourquoi on peut observer, par vagues, des pénalités manuelles tomber."
Un trio de règles
Pour s'éviter tout problème de santé lié à Discover, Sylvain Deauré conseille d'appliquer trois points : respecter les guidelines, les suivre et surveiller les autres acteurs.
Appliquer les consignes
Les guidelines de Google listent de façon claire les causes possibles de pénalités. Par exemple : "Google a détecté sur votre site du contenu qui semble enfreindre notre politique relative au contenu dangereux, car il contient du contenu susceptible de causer directement des dommages graves et immédiats aux personnes ou aux animaux." Il s'agit donc de suivre ces guidelines pour éviter les pénalités.
Si, malgré toutes vos précautions, vous avez été sanctionné, pas de panique. Quand pénalité manuelle il y a, l'éditeur reçoit une notification dans sa console. Est mentionnée la raison précise de la pénalité, qui renvoie à l'une des guidelines. "Alors que dans le cas d'un changement d'algorithme, les sites impactés ne sont pas notifiés", rappelle Sylvain Deauré. "On peut donc avoir des divergences sur l'interprétation fine des directives, mais aucune sur la cause en elle même."
La correction peut parfois être très simple. "On a vu par exemple de nombreux cas de pénalité pour manque de transparence de l'auteur, ou auteur mal représenté", lance Sylvain Deauré. "Elles ont été levées en une semaine juste en remplaçant le lien auteur vers une page de profil local. Les pénalités pour manque de mentions légales, identification de l'éditeur sont également aisées à traiter."
Notons que, d'après lui, "pour certains éditeurs, qui ont des process automatisés et publient en volume, il est plus facile et plus rentable d'ignorer les guidelines et de faire du jetable que de se conformer aux indications de Google. On sait que chaque site va tomber à plus ou moins court terme, mais il aura été largement rentabilisé entre-temps."
La veille éclaire
Comme pour ses algorithmes, Google met régulièrement à jour ses guidelines. "Le jour où il les modifie, la stratégie gagnante d'hier devient souvent la pénalité de demain", résume Sylvain Deauré. En effet, certains SEO cherchent à exploiter les failles du géant américain. Jusqu'à ce que celui-ci réagisse.
Fin 2024 par exemple, de nouvelles sections discrètes dans les guidelines ciblaient des pratiques estampillées trompeuses : dissimuler le but du site, son propriétaire ; cacher l'organisation qui produit le contenu ou encore se faire passer pour une autre entité. Alors que des SEO avaient pu s'engouffrer dans la brèche, ce message est apparu chez certains éditeurs suite à la mise à jour : "Google a détecté sur votre site du contenu qui présente de façon trompeuse la personne ou l'organisation qui a fourni ce contenu. Google interdit les contenus ou comptes qui trompent ou induisent en erreur les utilisateurs en se faisant passer pour quelqu'un d'autre ou en prétendant représenter une organisation que vous n'êtes pas."
"Dans le même ordre d'idée, on a également vu des domaines Discover avec trafic se faire bloquer au niveau de l'Afnic", pointe Sylvain Deauré. "Le propriétaire déclaré au niveau du bureau d'enregistrement était fictif ou mensonger. Ces actions ont sans doute été initiées suite à des plaintes ou dénonciations."
Un benchmark qui marque
Dernier élément soulevé par Sylvain Deauré, le plus sensible peut-être : évaluer les autres acteurs pour estimer où se trouve la "ligne rouge". Cela renvoie à la gestion du risque : "Va-t-on dépasser la limite avec des titres plus agressifs, et avoir un meilleur taux de clic et une meilleure visibilité ? Ou au contraire miser sur le long terme, l'expertise, quitte à perdre en audience ?", dissèque Sylvain Deauré. Différentes questions sont passées au crible. Par exemple, les actions potentiellement pénalisables pour contenu "trop" incitateur au clic, exagéré ou trompeur. "Dans ce cas, il est conseillé de faire "plus blanc que blanc"", estime Sylvain Deauré. "Un humain va sans doute regarder les contenus. Soyez irréprochable."
Egalement, pour lui, il s'agit d'être cohérent entre les auteurs et leur expertise. "L'EEAT, dont Google nous rebat les oreilles, n'est pas une métrique simple à appréhender. Elle est profondément liée à son Knowledge Graph, à son page rank issu de sites de confiance, à une compréhension des entités, des thématiques comme Google les perçoit, ainsi qu'à des signaux utilisateurs… Une EEAT crédible est difficile à truquer : soyez vrais, cela paiera sur le long terme."
Clément Pessaux explique de son côté que la "bienséance" sur ce média se résume en un mot : raisonnabilité. "Pour un site lambda, publier entre 4 et 6 articles par jour, avec des informations fiables et une ligne éditoriale claire, ne présente aucun risque de pénalité manuelle. En revanche, les sorties algorithmiques restent possibles, et sur ce point, aucun site n'est à l'abri."