Moteur-référencement > Les nouvelles règles des moteurs
ANALYSE
 
30/05/2007

Les nouvelles règles des moteurs à ne pas enfreindre

Duplicate content ou encore achat de liens, Google durcit sa politique afin de protéger son index du risque de spam. Les grandes règles à retenir pour éviter le couperet.
 EnvoyerImprimer 

 
Sommaire
 
 
 

Face à un spam toujours conséquent sur leurs index, les moteurs recadrent continuellement l'utilisation de leur moteur. Après avoir tapé un grand coup en blacklistant les sites utilisant des pages satellites, Google continue de perfectionner son algorithme et de se protéger face à d'autres formes de spam.

Difficile de ne pas approuver cette volonté, le but pour les moteurs étant d'assainir leur index pour offrir aux internautes les résultats les plus qualifiés. Seul problème : les techniques considérées comme spam ne sont pas toujours expliquées clairement par le moteur. Un flou pénalisant pour les gérants de site.

Dernière affaire en date : l'achat de liens. Utilisée notamment dans le cadre d'une stratégie de référencement, cette technique consiste à acheter la présence d'un lien auprès d'un autre acteur amenant sur une des pages du site.

Alors que le moteur se contentait jusque là d'inciter dans ses guidelines les sites à ne pas participer à des échanges de liens dans l'unique but d'augmenter leur classement, le discours a pris une autre tournure le 14 avril 2007. Matt Cutts, responsable de l'équipe anti-spam du moteur Google, a annoncé sur son blog, la mise en place d'une politique plus sévère en matière d'achat de liens, en incitant à la délation de cette pratique via le formulaire de spam report (lire le post sur le blog de Matt Cutts).

Une affaire qui a fait grand bruit dans l'univers des référenceurs. "Difficile pour Google de savoir quel lien est acheté. D'autant plus que l'achat de lien n'est pas forcément dévalorisant, au contraire", explique Sebastien Darras, gérant de l'agence de référencement Visibeo. Une information qui reste donc à prendre avec des pincettes.

D'autres techniques à abolir portent moins à confusion : parmi celles aujourd'hui refusées par les moteurs : l'indexation de pages de résultats dans son index (lire la brève Google contre les pages de résultats dans ses résultats du 13/03/2007). Ces pages de résultats n'apportant pas de valeur ajoutée, le moteur a décidé de les desindexer de son index.

Le duplicate content est également le nouveau cheval de bataille de Google. Depuis que le brevet sur les calculs de similarité a été validé en début d'année (lire la brève Le duplicate content de Google breveté du 08/01/2007), le moteur applique une sanction quasi-systématique.

"Difficile d'optimiser un site en suivant les guidelines de Google. Ce dernier préconise d'en faire le moins possible pour se positionner", ironise Sebastien Darras. "Il s'agit de rester cohérent : ne jamais dépasser six fois l'occurrence d'un mot clé, éviter les liens en bas de page".

 
Sommaire
 
 
 

Enfin, l'erreur la plus fréquemment répandue dans la mise en place d'une stratégie de netlinking : présenter un titre de lien identique. "Ce piège est à éviter. Cette répétition massive a tendance à dévaloriser le lien", ajoute Sebastien Darras. Il est préférable de proposer des liens avec des titres différents amenant vers différentes pages du site.

 


EnvoyerImprimerHaut de page