Google Panda et Pingouin : le référencement est-il devenu surnaturel ?

A peine le temps de se remettre du Panda que Google lance Pingouin, nouvelle mise à jour de son algorithme. Sa mission : rappeler à l’ordre les référenceurs coupables d’hérésie dans leurs stratégies de référencement. Condamnant certains sites, et en consacrant certains autres.

Avec son algorithme Panda, Google avait lancé sa croisade contre les "fermes de contenu" et les comparateurs de prix. L’enjeu était de punir ces deux grands adeptes de stratégies SEO malveillantes visant à industrialiser la production de contenus bas de gamme et créer des pages à la volée pour être mieux référencé. Fini les pages de contenus générées par des logiciels, sus aux pages vides de texte mais remplies de publicités, censées s’adapter à la perfection aux mots-clés tapés par les Internautes.
Google Pingouin est aux backlinks en 2012 ce que Google Panda était aux contenus en 2011.
Avec le Pingouin, Google s’attaque aux sites web coupables de manipuler son algorithme du PageRank, véritable blasphème. Le moteur de recherche depuis son origine mesure l’essentiel de la pertinence d’un site web par le nombre de liens reçus par celui-ci. Celui qui dope la popularité de son site par des échanges ou des achats de liens en masse trompe donc l’algorithme de classement de Google.
Si on suivait au pied de la lettre les recommandations de Google, il ne faudrait plus rien toucher sur son site pour rester « clean ». Dès lors, que reste-t-il aux E-commerçants, à part prier que la manne des clics naturels tombe du ciel ?

Panda et Pingouin, défenseurs du premier actif de Google : la pertinence de ses résultats de recherches.
Rappelons tout de suite un principe de base : les résultats proposés par Google aux Internautes sont qualifiés de naturels car ils ne sont pas issus d’un accord commercial entre le site Internet et le moteur de recherche, comme c’est le cas sur Adwords. Du coup, toute optimisation de son site pour qu’il soit bien référencé par Google n’est pas « naturelle » en soi.
Donc oui, bien sûr, il faut continuer d’optimiser son site pour le SEO ! De toutes les façons, Google ne peut changer les règles de base de son algorithme de classement.
Mais, comme les référenceurs emploient des techniques de plus en plus difficiles à repérer, Google doit leur faire peur. Petite pensée aux sites sacrifiés qui ont perdu 80% de leur trafic. Ce sont Twenga ou Ciao chez les comparateurs ou eHow, Ezinearticles et Wikio chez les agrégateurs de contenu. D’ailleurs, les avertissements envoyés par Google cet été, souvent par erreur, accusant certains propriétaires de sites web de créer des faux backlinks, ne sont pas innocents : ils alimentent la psychose, et servent Google.
L’optimisation propre d’un site web pour les moteurs de recherche sera donc toujours l’affaire d’un travail méthodique et organisé autour du code source, de son contenu et d’un réseau de backlinks provenant de sites en rapport avec son activité business. Il n’y a rien de surnaturel ici.
Gardons simplement en tête que le Panda et le Pingouin sont les gardiens du temple, le Standard & Poor’s des contenus et des liens du web. En notant plus sévèrement les sites de son index, le moteur défend son trésor de guerre : la pertinence de ses résultats de recherche. Et c’est exactement la même mission qui est confiée au Quality Score, outil de notation des campagnes Adwords : améliorer l’expérience des Internautes qui cliquent sur les liens sponsorisés.

Social rating : quand les « like » remplacent les « links ». Devant la difficulté à trier le bon grain de l’ivraie parmi les milliards de sites de son index, Google est contraint de faire appel à l’avis de ses propres utilisateurs pour mieux évaluer leur pertinence. Que les Internautes votent pour des pages qu’ils aiment via le bouton +1 de Google+, ou bloquent les pages d’un site jugées inutiles, le classement de Google devient plus collaboratif. Le netlinking n’a pas encore laissé place au net-liking, mais on s’en rapproche. D’ailleurs, le marché du « like » progresse très bien outre-manche où certaines sociétés vendent déjà par pack des lots de like Facebook ou de +1 de Google grâce à des armées d’utilisateurs à travers le monde. Déjà 30 cts d’euros le like de Facebook, nous verrons bien à combien le marché fixe le prix de ce nouveau type de backlink !
L’appel au vote du public est-il un aveu de faiblesse de la firme de Mountain View ? Peut-être, car il y a eu des ratés quand Google Pingouin a sanctionné certains sites. Retenons le site américain WPMU.org, pénalisé alors qu’il n’y avait eu aucune malveillance de sa part. Il aura fallu un nettoyage méthodique de 500 000 de ses backlinks, pour retrouver ses positions sur Google. 
Pour éviter à l’avenir d’autres erreurs de ce type et enrayer la prolifération des pratiques de Negative SEO (faire pointer vers son concurrent des liens vénéneux pour le faire pénaliser), le moteur proposera bientôt un outil permettant de désavouer un lien vers son site dans Google Webmaster Tool. L’outil permettra également à Google de repérer facilement les sites jugés de faible qualité par les éditeurs.
Derrière la chasse aux techniques de référencement abusives, se cache donc un enjeu majeur pour Google : conserver sa position dominante sur le marché de la recherche. En intégrant de plus en plus de données sociales dans son système de notation, le géant s’éloigne de son algorithme originel et fragilise sa position face à des acteurs comme Facebook qui travaillent sur des moteurs de recherche 100% sociaux.
----------------------------
Chronique rédigée par Alexandre Garnier, Président d’AWE et Simon Febvre, Directeur Agence d’AWE.

Autour du même sujet