Google Panda et Pingouin : le référencement est-il devenu surnaturel ?
A peine le temps de se remettre du Panda que Google lance Pingouin, nouvelle mise à jour de son algorithme. Sa mission : rappeler à l’ordre les référenceurs coupables d’hérésie dans leurs stratégies de référencement. Condamnant certains sites, et en consacrant certains autres.
Avec son
algorithme Panda, Google avait lancé sa croisade contre les "fermes de
contenu" et les comparateurs de prix. L’enjeu était de punir ces deux grands
adeptes de stratégies SEO malveillantes visant à industrialiser la production
de contenus bas de gamme et créer des pages à la volée pour être mieux
référencé. Fini les pages de contenus générées par des logiciels, sus aux pages
vides de texte mais remplies de publicités, censées s’adapter à la perfection aux
mots-clés tapés par les Internautes.
Google Pingouin est aux backlinks en 2012 ce que Google Panda était aux contenus en 2011.
Avec le Pingouin,
Google s’attaque aux sites web coupables de manipuler son algorithme du
PageRank, véritable blasphème. Le moteur de recherche depuis son origine mesure
l’essentiel de la pertinence d’un site web par le nombre de liens reçus par
celui-ci. Celui qui dope la popularité de son site par des échanges ou des
achats de liens en masse trompe donc l’algorithme de classement de Google.
Si on suivait au
pied de la lettre les recommandations de Google, il ne faudrait plus rien toucher
sur son site pour rester « clean ». Dès lors, que reste-t-il aux
E-commerçants, à part prier que la manne des clics naturels tombe du ciel ?
Panda et Pingouin, défenseurs du premier actif de
Google : la pertinence de ses résultats de recherches.
Rappelons tout de suite
un principe de base : les résultats proposés par Google aux Internautes
sont qualifiés de naturels car ils ne sont pas issus d’un accord commercial
entre le site Internet et le moteur de recherche, comme c’est le cas sur
Adwords. Du coup, toute optimisation de son site pour qu’il soit bien référencé
par Google n’est pas « naturelle » en soi.
Donc oui, bien
sûr, il faut continuer d’optimiser son site pour le SEO ! De toutes les
façons, Google ne peut changer les règles de base de son algorithme de classement.
Mais, comme les référenceurs
emploient des techniques de plus en plus difficiles à repérer, Google doit leur
faire peur. Petite pensée aux sites sacrifiés qui ont perdu 80% de leur trafic.
Ce sont Twenga ou Ciao chez les comparateurs ou eHow, Ezinearticles et Wikio chez
les agrégateurs de contenu. D’ailleurs, les avertissements envoyés par Google
cet été, souvent par erreur, accusant certains propriétaires de sites web de
créer des faux backlinks, ne sont pas innocents : ils alimentent la psychose,
et servent Google.
L’optimisation propre
d’un site web pour les moteurs de recherche sera donc toujours l’affaire d’un
travail méthodique et organisé autour du code source, de son contenu et d’un
réseau de backlinks provenant de sites en rapport avec son activité business.
Il n’y a rien de surnaturel ici.
Gardons simplement
en tête que le Panda et le Pingouin sont les gardiens du temple, le Standard
& Poor’s des contenus et des liens du web. En notant plus sévèrement les
sites de son index, le moteur défend son trésor de guerre : la pertinence
de ses résultats de recherche. Et c’est exactement la même mission qui est confiée
au Quality Score, outil de notation des campagnes Adwords : améliorer l’expérience
des Internautes qui cliquent sur les liens sponsorisés.
Social rating : quand les « like » remplacent
les « links ». Devant la
difficulté à trier le bon grain de l’ivraie parmi les milliards de sites de son
index, Google est contraint de faire appel à l’avis de ses propres utilisateurs
pour mieux évaluer leur pertinence. Que les
Internautes votent pour des pages qu’ils aiment via le bouton +1 de Google+, ou
bloquent les pages d’un site jugées inutiles, le classement de Google devient
plus collaboratif. Le netlinking n’a pas encore laissé place au net-liking, mais on s’en rapproche. D’ailleurs,
le marché du « like » progresse très bien outre-manche où certaines
sociétés vendent déjà par pack des lots de like
Facebook ou de +1 de Google grâce à des armées d’utilisateurs à travers le
monde. Déjà 30 cts d’euros le like de
Facebook, nous verrons bien à combien le marché fixe le prix de ce nouveau type
de backlink !
L’appel au vote du
public est-il un aveu de faiblesse de la firme de Mountain View ?
Peut-être, car il y a eu des ratés quand Google Pingouin a sanctionné certains
sites. Retenons le site américain WPMU.org, pénalisé alors qu’il n’y avait eu
aucune malveillance de sa part. Il aura fallu un nettoyage méthodique de 500 000
de ses backlinks, pour retrouver ses positions sur Google.
Pour éviter à
l’avenir d’autres erreurs de ce type et enrayer la prolifération des pratiques
de Negative SEO (faire pointer vers son concurrent des liens vénéneux pour le
faire pénaliser), le moteur proposera bientôt un outil permettant de désavouer
un lien vers son site dans Google Webmaster Tool. L’outil permettra également à
Google de repérer facilement les sites jugés de faible qualité par les
éditeurs.
Derrière la chasse aux techniques de référencement abusives, se cache donc un enjeu majeur pour Google : conserver sa position dominante sur le marché de la recherche. En intégrant de plus en plus de données sociales dans son système de notation, le géant s’éloigne de son algorithme originel et fragilise sa position face à des acteurs comme Facebook qui travaillent sur des moteurs de recherche 100% sociaux.
----------------------------
Chronique rédigée par Alexandre Garnier, Président d’AWE et Simon
Febvre, Directeur Agence d’AWE.