Quelle révolution pour les contenus digitaux ? Quel impact sur la recherche ?

Les modes de recherche de l'information se trouvent eux aussi bouleversés par ces nouveaux modes de production. Face à la forte augmentation de contenus en ligne, souvent accusés d'être de piètre qualité, certains moteurs de recherche ont décidé de réagir pour dégrader la visibilité de certains sites. C'est ce qu'a fait le premier d'entre eux, Google, notamment à travers une mise à jour de son algorithme, baptisée "Panda update". Selon le directeur stratégie et innovation d'Aposition (Isobar) Jérôme Spiral, cette mise a jour effectuée sur la version américaine du moteur a touché plus de 12 % des requêtes. Elle devrait arriver dans les prochaines semaines en France.


jérôme spiral, directeur stratégie et innovation d'aposition
Jérôme Spiral, directeur stratégie et innovation d'Aposition © JDN / Cécile Debise

"Avec Panda update, Google cherche avant tout à mettre en avant les sites qui font autorité", explique Jérôme Spiral. Amazon, Wikipedia, Facebook, Youtube ou Yahoo Questions-réponses font notamment partie des sites ayant profité de cette mise à jour. Parmi eu figure également eHow.com, le vaisseau amiral de Demand Media, souvent cité en exemple comme responsable de la hausse des contenus de faible qualité, mais pas pour Google. De nombreuses "fermes de contenus" ont ainsi été pénalisées par cette mise à jour, dont Answers.com, Hubpages.com ou Suite101.com. 


Quels contenus seront favorisés lorsque la Panda update arrivera en France ? Comme aux Etats-Unis, "les sites de référence seront privilégiés, ainsi que les sites de marque, et ceux produisant à la fois des contenus originaux et de confiance", affirme le directeur stratégie et innovation d'Aposition. Aux Etats-Unis, le moteur de recherche a créé un panel d'utilisateurs a qui il soumettait des pages de sites en leur posant des questions associées. "Il leur demandait notamment s'ils accepteraient de donner leur numéro de carte de crédit à ces sites, s'ils estimaient qu'ils comportaient trop de publicité ou si leurs contenus étaient dignes de ceux d'un magazine." Ces jugements ont été ensuite transposés sous forme d'algorithme.


Jérôme Spiral estime que Google évalue ainsi négativement la probabilité qu'un texte soit produit de manière automatique, notamment lorsque la syntaxe est trop similaire entre différents contenus d'un même site. Les pages et sites "sur-optimisées" pour le référencement naturel n'auraient pas non plus la préférence du moteur. En revanche, les sites utilisant des éléments multimédias, mettant en avant les avis et commentaires d'internautes, favoriseraient un bon référencement, tout comme le nombre de like d'une page sur Facebook ou de retweets sur Twitter. Il recommande enfin de supprimer de son site les pages qui n'ont pas de contenu de qualité, ou du moins de ne pas les faire référencer par Google. "Quelques contenus de mauvaise qualité peuvent suffire à pénaliser tout un site et ses sous-domaines", prévient Jérôme Spiral.

Web 2.0