"Bonnes feuilles" : Internet Marketing 2011 Comment, aujourd'hui, booster son référencement ?

"... Tous les responsables de sites l'ont remarqué : il devient de plus en plus difficile de se positionner en bonne place sur les principaux outils de recherche. La faute à "pas de chance" ? Pas tout à fait... Si un certain nombre de critères n'ont pas changé dans le temps, la plupart ont beaucoup évolué. Et votre référencement doit s'y adapter ! Contrairement aux apparences, pour être bien référencé aujourd'hui, il ne faut pas être le "meilleur". Il faut juste être mieux que les autres... [...]

Ce qui n'a pas changé pour être bien référencé :

Le premier élément pour qu'un site soit bien référencé est qu'il apporte quelque chose d'utile aux internautes et susceptible d'être un sujet d'intérêt. Un site qui n'apporte aucune valeur ajoutée à ce qui existe ailleurs n'a pas sa place dans un outil de recherche.

Le second élément est que les pages du site concerné soient repérables et analysables par les robots des outils de recherche (ce qu'on appelle dans le jargon "spider friendly"). Une page non analysable peut très bien être référencée dans certains cas précis, mais un site constitué de pages non analysables par des robots (souvent du fait de la technologie employée : Ajax, etc.) voit ses chances d'être bien référencé diminuer fortement.

Ce qui a changé pour être bien référencé :

On peut distinguer sommairement quatre générations d'algorithmes de classements dans les outils de recherche. Ces générations se sont succédées d'un point de vue chronologique, sans que chacune ne remplace complètement la précédente. Ainsi, les principaux moteurs actuels utilisent un "mixte" des générations.

 La première génération est fondée sur le déclaratif. Très pratique à mettre en place et probante dans sa réactivité, cette génération prenait essentiellement en compte les éléments que les webmasters des sites leur transmettaient eux-mêmes, via des meta balises (meta balises keywords, description, etc.). Se référencer consistait alors à remplir correctement ces balises.

 La seconde génération a émergé avec la prise en compte entière du texte des pages. AltaVista a été le grand chantre de cette évolution qui a marqué une page dans l'histoire des capacités de calculs des outils de recherche. Se référencer consistait alors à répéter les mots-clés "cible" à l'intérieur des pages.

 La troisième génération est arrivée avec Google et la prise en compte des critères de popularité. Bien évidemment, le fameux " PageRank ", mais aussi tous les critères qui découlent de la même logique (LocalRank, TrustRank, etc.). De nombreux "cercles de liens" ou "fermes de liens" sont alors apparus, croyant déjouer la capacité de compréhension de l'univers Web des moteurs.

 La quatrième génération est née d'un constat simple : il n'y a pas un algorithme absolu, mais des algorithmes pertinents en fonction d'un type de requête spécifique. Par exemple, certaines requêtes requièrent des réponses fraîches (c'est-à-dire des pages dont le contenu a été actualisé récemment), d'autres nécessitent surtout que la page qui apporte une réponse soit reconnue comme une "autorité". L'intégration des données de recherche en "temps réel" pousse cette génération à son paroxysme. Impossible (idiot ?) de calculer le linking d'une page qui a été créée trois secondes avant son indexation !

Ainsi, après avoir cherché à analyser la pertinence par la confiance dans les webmasters (génération 1), après avoir cherché à analyser eux-mêmes la pertinence (génération 2) ou s'en être remis de manière systématique au jugement des autres (génération 3), les moteurs intègrent désormais des critères " relatifs " (génération 4)..."