MOTEUR REFERENCEMENT
Sommaire Moteur-Référencement 
Les nouvelles arnaques au référencement
Le cloacking n'est plus qu'un lointain souvenir. Pourtant, de nouvelles techniques ont pris le relais : faux contenus, splog, liens massifs… De quoi occuper les ingénieurs en charge des algorithmes des moteurs.   (16/03/2007)
  En savoir plus
 LSF Network
 Netmedia Consulting
 Ucatchit
 Séminaire : Comment optimiser son site pour le référencement
  Définition
Cloaking
Splog
Trustrank
Bannies par les moteurs de recherche, les techniques de cloaking et des pages satellites ne sont plus vraiment à la mode. Les termes "référencement propre et durable" sont aujourd'hui les maîtres mots du marché de l'optimisation.

Cela étant, les blacks hats du référencement (par analogie aux pirates ayant le goût des actions illégales) n'ont pourtant pas complètement disparu, loin de là.

Ils sont certes moins nombreux à utiliser les pages satellites, mais ils utilisent aujourd'hui de nouvelles techniques pour se retrouver en tête des résultats. Leur méthode : utiliser à l'excès les critères des moteurs pour arriver à se positionner, ne serait-ce que temporairement, sur les premières places.

Un des critères largement exploités : le contenu. "La fraude au contenu s'est accentuée depuis le printemps 2006", témoigne François Houste, responsable du département référencement de LSF Network. Différentes actions, plus ou moins influentes, peuvent être considérées comme de la fraude au contenu. La plus répandue et la plus virulente : le splog, c'est-à-dire la création de blogs artificiels, utile pour augmenter la spécialité et la notoriété dans un domaine en particulier.

"C'est en quelque sorte du blog satellite", commente François Houste. En clair, les détenteurs d'un site créent un ou plusieurs blogs sur un domaine particulier, ajoutent divers contenus ciblés et créent des liens vers leur propre site. Cette démarche est aujourd'hui complexifiée par la lutte active des plates-formes de blog contre ce fléau.

Dans une moindre mesure, et avec de moindres conséquences, il arrive également que certains sites abusent de l'utilisation massive de mots clés, au détriment de la qualité du contenu. "C'est en particulier le cas dans les secteurs concurrentiels. Par exemple, dans le domaine de l'achat de crédit, les sites professionnels misent sur la répétition de mots clés ou d'expressions. Cette démarche s'avère bien souvent indigeste pour l'internaute", souligne Delphine Demessine, consultante en référencement chez Netmedia Consulting.

Créer une notoriété artificielle pour les moteurs
Les moteurs adaptent continuellement leurs algorithmes face à ces manœuvres. "Moins on triche, mieux on se porte. La triche apporte un mauvais ROI sur le court terme comme sur le long terme", appuie Luc Jovart, fondateur de l'agence Web Ucatchit. "Nous avons mis en place des sites de tests utilisant des méthodes abusives : ces derniers n'apportent aucun contact viable", note le professionnel. En clair, du temps perdu pour une contrepartie dérisoire.

D'autres pistes sont exploitées par certains responsables techniques de sites Web, notamment celle de la popularité. Le but : obtenir des liens à partir d'un maximum de sources. Une manière de créer une notoriété artificielle pour les moteurs. "C'est la course aux nombres de liens entrants en masse sur le site", explique François Houste. "Les moteurs n'ont pas encore fait la bascule sur leur algorithme et tiennent encore compte de la quantité de liens", complète ce dernier.

"Il arrive également que le contenu présente une multiplication de liens, pas toujours visibles par l'internaute", ajoute Delphine Demessine. Des liens non soulignés permettant un crosslinking favorable pour les moteurs, mais n'apportent aucune plus-value à l'internaute.

"Ce sont les moteurs de recherche qui définissent les règles"
(François Houste - LSF Network)
Là encore, les algorithmes s'adaptent. Celui de Google a sorti de nouvelles armes en mettant en place le trustrank, incluant dans son calcul la notion de confiance.

Autre tricherie, qui a fait sensation en juin dernier : l'augmentation artificielle de la taille d'un site. Un internaute a ainsi réussi à indexer 5,5 milliards de pages d'un seul et même site dans la base de Google. "En multipliant les sous-domaines, il a réussi à se faire une place dans l'index, avant de disparaître, blacklisté par le moteur", relate François Houste. Une nouvelle forme de spamdexing...

Mais les spécialistes du référencement sont unanimes : les cas de sites professionnels utilisant des techniques spammantes sont désormais rares.

  En savoir plus
 LSF Network
 Netmedia Consulting
 Ucatchit
"Les moteurs de recherche réagissent rapidement au spam, d'autant plus facilement que ce sont eux qui définissent les règles. Un débat vient de se lancer aux Etats-Unis sur les pages de résultats ressortant dans l'index de Google (lire la breve Google contre les pages de résultats dans ses résultats du 13/03/2007). Même si le moteur n'a pas encore considéré cette technique comme du spam, il peut officialiser cette position d'un jour où l'autre. Il faudra alors très vite s'adapter", relate François Houste.

Emmeline RATIER, JDN Solutions Sommaire Moteur-Référencement
 
Accueil | Haut de page
 
 

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Toutes nos newsletters