La technologie au service d’un référencement dynamique efficace et pérenne (2/2)

Se concentrer sur la réflexion, maximiser l'optimisation du site et favoriser l'indexation du site : ces trois étapes restent essentielles pour optimiser sa visibilité sur les moteurs.

Quelle méthode adopter ?
 
Dans un premier temps il faut se concentrer sur la réflexion : auditer les sites des concurrents, vérifier les mots clés et expressions utilisées et les résultats qu'ils ont obtenus.  Une fois ce benchmark terminé, l'agence doit se concerter avec le client pour analyser la cohérence entre les ressources existantes (le site actuel, les contenus,...) et le positionnement souhaité.

Cette étude préalable et minutieuse permet de déterminer les différentes ressources (mots clés identité, mots clés métiers, mots clés produits, ...) ainsi que les autres opérations à mener pour maximiser le potentiel du site.
 
A cette étape de la réflexion, il faut procéder à une double analyse de pertinence :
le positionnement est-il possible et cohérent par rapport aux contenus existants ? Dans le cas contraire, l'agence devra impérativement sensibiliser son client sur ce point et apporter des solutions concrètes (rédaction de contenus, ajouts "up line", "base line", menus déroulants, plans de sites, glossaires, blogs...).

Les mots clés et expressions proposées par le client sont-ils cohérents, sont-ils tapés et recherchés par les internautes ?

Ainsi par exemple, il vaut mieux être positionné sur le mot "thalasso" que sur le mot "thalassothérapie", tout simplement parce que la première occurrence est beaucoup plus récurrente dans les saisies des internautes (confère analyse des logs des moteurs de recherche).
 
Il existe donc bien une technique permettant de choisir des ressources (titres, descriptions, mots clés) pertinentes.
 
Dans un deuxième temps il faut maximiser l'optimisation du site.
Les techniques sont de plus en plus nombreuses, notamment avec la prise en charge des contraintes issues du web 2.0.
 
Il y a par exemple l'url rewriting.
Soit la génération d'intitulés de pages explicites (url rewriting) est paramétrée et gérée côté serveur web. Dans ce cas là le développeur n'a pas grand-chose à faire puisque le serveur web va dynamiquement renommer les pages avec des intitulés explicites. Le développeur doit simplement modifier dans son code la partie liée aux liens hypertextes des menus.

Soit la génération d'intitulés de pages explicites (url rewriting) est gérée côté développement dans le code du site. Dans ce cas là, le développeur a plus de travail à faire. Il doit développer une interface d'administration qui permet de modifier le contenu d'une page via une interface tout en déclenchant plusieurs événements : stockage dans la base du contenu modifié, création d'une page html statique à la racine du site (dont l'intitulé serait par exemple l'intitulé de la rubrique), modification du lien hypertexte du menu vers la nouvelle page html statique se trouvant désormais à la racine du site.
 
L'accent doit également être mis sur le contenu, notamment avec la méthode du LSI (Latent Semantic Indexing) et de la duplication de contenu.

Cette technique consiste à aider les moteurs de recherche à comprendre de quoi traite une page d'un site. Cela revient à créer des thématiques regroupées et appelées par des mots différents pour décrire un même sujet, utiliser des variations du mot ou des synonymes.
 
Il existe enfin tout un arsenal de techniques devenues illicites :
 
Technique du Cloacking : on adapte le contenu en fonction de la cible. Un script filtre l'entrée d'une page sur le principe suivant : soit le visiteur est un robot et on lui affiche une page fantôme spécifiquement optimisée, soit, dans le cas contraire, on affiche la vraie page au visiteur.
 
Technique de l'erreur de syntaxe : les balises « alt » et « title » permettent de signifier aux navigateurs la présence de commentaires et texte alternatif. Elles sont désormais pondérées et moins prises en compte par les robots.
Mais une simple erreur (volontaire) appliquée dans la syntaxe de la balise (que l'on écrit alt= « » référencement au lieu de alt= « référencement » par exemple) et le texte est alors interprété par le robot non plus comme un simple commentaire mais comme du texte lisible à part entière.
 
Technique de la répétition de mots clés : au début il suffisait d'afficher sur une page un maximum de mots clés, le critère de prépondérance était la récurrence des mots.
Les moteurs ont répondu en dé doublonnant. Il a suffit aux référenceurs de créer des algorithmes de mots clés comprenant des variables aléatoires de séparation empêchant toute logique de comptage et donc de dé doublonnage.
 
Technique du texte caché :
Par un procédé simple les référenceurs cachaient des mots clés sur les pages importantes. Ce procédé est désormais interdit par les moteurs qui ont, pendant un temps, défini le texte caché comme une technique d'affectation d'une couleur de police identique à celle du fond de la page dans laquelle il est placé ! Force est de constater qu'ils ont quelque peu manqué de discernement sur cette définition.

En effet, que devient un texte de couleur noir dans une page dont la couleur de fond est blanche mais dont la place dans la page serait définie à l'intérieur d'une balise « div » dont la propriété de visibilité est « hidden » ?
Au sens strict de la charte d'indexation ce n'est pas du texte caché car la couleur du texte diffère de celle de la page.
 
Certes, c'est un problème de sémantique de bonne rédaction des chartes du côté des moteurs de recherche (qui ont rectifié le tir depuis !).
 
 
Mais il existe d'autres fonctions avancées, notamment dans les interfaces d'administration pour que le client bénéficie d'un référencement dynamique qui s'améliorera avec le temps, y compris une fois la prestation du référenceur terminée : personnalisation automatique des balises métas en fonction des contenus modifiés par le client, génération physique à la racine du serveur de l'arborescence virtuelle sous forme de répertoires, de pages contextuelles (qui ne seront pas considérées comme des pages satellites puisqu'elles ne constituent pas des redirections et affichent bien un contenu) de liens correspondants, d'exports pdf des contenus (technique qui permet de doubler le nombre de pages indexées dans Google), des plans dynamiques de sites (génération d'un nouveau Google Sitemaps,...), ...
 
Il existe donc bien des techniques permettant de construire un site plus adapté dans le but de faciliter l'indexation de son contenu auprès des différents moteurs de recherche.
 
Dans un troisième temps il faut se concentrer sur l'indexation du site.
En concertation avec son client, l'agence doit recenser avec son client les moteurs de recherche et annuaires dans lesquels il est pertinent d'y inscrire le site.

Cette étape est à la fois relativement simple et fastidieuse. Elle est simple dans la mesure où une les moteurs de recherche qui trustent le marché du trafic sont bien connus. Elle devient fastidieuse lorsqu'il faut mettre en place une politique de liens de type « backlinks » avec des retours réciproques sur les annuaires spécialisés dans le secteur d'activité du client.
Dans tous les cas, la meilleure technique consiste à procéder de façon manuelle pour chaque indexation. 
 
D'abord, une agence de référencement doit maîtriser une méthode rigoureuse comportant des étapes de travail structurées pour obtenir un positionnement pertinent. Ensuite, une bonne agence doit maîtriser en interne la technologie et les éléments de programmation spécifique du site pour obtenir un résultat efficace. Enfin, une excellente agence doit anticiper sur les adaptations des moteurs de recherches et devenir force de proposition sur les évolutions techniques du site pour obtenir des résultats pérennes.
 
Les moteurs de recherche engendrent de profondes mutations au sein des agences. Il y a 10 ans, le référencement était gratuit. L'opération était réalisée en post production à la mise en ligne du site et ne prenait que quelques minutes au prestataire. Aujourd'hui, c'est devenu une activité professionnelle de plus en plus complexe et de plus en plus technique, n'en déplaise à certains.

Il faut d'ailleurs s'en réjouir car le dynamisme des moteurs de recherche est devenu pour les agences web une source d'activité (et d'embauche) extrêmement stimulante puisqu'elle permet de garder le lien avec ses clients et de s'embarquer avec eux dans une logique d'efficacité.

Dans une agence Web, un bon département marketing interactif obtenant de bons résultats facilite le travail des commerciaux en avant vente et apporte une aide précieuse aux directeurs de clientèle dans la fidélisation de leur portefeuille client.
 
Faut-il se passer de la technique pour un bon référencement ? La réponse est non.
C'est une question de bon sens. Les algorithmes de recherche sont de plus en plus complexes dans leur conception et de plus en plus pertinents dans les résultats proposés. Face à cet état de fait, les clients devront avoir en contrepartie des sites également de plus en plus perfectionnés pour suivre cette course effrénée au résultat.
 
Les agences ne sont pas forcément les seules à faire fausse route. Les moteurs de recherche ont longtemps tenté (et continuent) de complexifier le travail des référenceurs sous prétexte de maintenir en quelque sorte des bases de données propres. C'est un non sens ! Il faut dédramatiser la course aux astuces techniques et comprendre que c'est une guerre stérile que mènent les moteurs de recherche aux référenceurs.
 
Pour peu qu'elles respectent de façon intelligente (voir astucieuse) les chartes d'indexation des moteurs de recherche, plus les agences vont continuer à imaginer et concevoir des techniques et des méthodes de référencement plus elles seront dans le vrai.
 
Le moteur de recherche et le site Internet professionnel ont des intérêts fortement convergents. Celui du moteur est de proposer rapidement une adresse utile en réponse à la recherche de l'internaute. Celui de l'entreprise qui souscrit une prestation de référencement payant serait-il contraire ? Cet argent qui ne tombe pas dans la main mise de Google les énervent-ils au point de se fourvoyer ? Si c'est le cas, et fort du succès de leur technologie, pourquoi Google ne créerait-il pas sa propre agence de référencement ?
 
Soyons raisonnables. Une entreprise qui investit dans les techniques de référencement en confiant à un prestataire le soin de passer du temps à optimiser son site, moyennant finance, pour mieux le positionner possède forcément en contrepartie un site pertinent. En conséquence de quoi, l'internaute ne peut pas être lésé !
 
Il existerait bien une solution intéressante et qui présenterait l'avantage de contenter tout le monde : la puissance de l'algorithme de recherche puisant dans des données utiles et pertinentes pour l'internaute : un Google pro ne proposant que des sites exploités par des personnes morales et un Google perso ne proposant que des sites exploités par des personnes physiques.
 
Cette division relativement pertinente pourrait même catalyser encore plus les résultats de Google (deux moteurs = plus de trafic, plus de revenus,...) car on y retrouverait dans les deux cas, la notion de référencement manuel classique et la notion de référencement promotionnel payant.

Autour du même sujet