Dix ans de Google vus par trois experts en référencement Raphaël Richard (Neodia) : "L'introduction d'un système de notation humaine en 2004 a constitué une révolution pour les fondateurs de Google"

Que vous inspire le 10e anniversaire de Google ?
Google a longtemps été une version très améliorée d'Altavista ou d'Excite dans la restitution des résultats, bien que la technologie soit totalement différente. Les premiers moteurs de recherche reposaient sur une architecture à base de serveurs classiques et les fondateurs de Google ont opté pour une architecture à base de PC connectés en série.

En 2004, leur nombre se comptait déjà en centaines de milliers de machines, soit à l'époque un rapport de 100 machines par employé. En proposant des listes de résultats similaires à celles des concurrents, Google s'est imposé grâce à une marque plus forte, des temps d'affichage ultra-rapides et des résultats plus simples à obtenir.

Google a été le premier moteur à permettre d'afficher des résultats pertinents sur des requêtes complexes sans recourir aux opérateurs boléens (And, Or, Not...) en vogue à la fin des années 1990. C'est surtout pour ces raisons qu'il est devenu le chouchou du grand public.

Mais, il a fallu attendre 8 années pour que Google commence à introduire, en sus des résultats issus du crawling du Web non-structuré (les sites Web ordinaires), des résultats de bases de données structurées : résultats de type annuaire avec Google Maps, revue de presse avec Google News, images de Google images, etc.

Google a été le premier moteur à permettre d'afficher des résultats pertinents sur des requêtes complexes

Aujourd'hui, Google semble avoir vraiment opté pour un moteur de nouvelle génération qui affiche des pages de résultats riches (Web, news, vidéo, image, etc.) à l'instar de ce que propose depuis 2004 le moteur Coréen Naver.

Une vraie révolution a eu lieu la même année chez Google : l'introduction d'un système de notation "humaine" de chaque site apparaissant sur un mot clé défini, comme "hotel a paris". Google a décidé de payer des centaines de "critiques" (dénommés "quality managers") pour tester en permanence la qualité des pages de résultats sur les mots clés les plus demandés.

Cela a représenté un grand virage pour le moteur, dont les fondateurs pensaient initialement qu'un système fondé sur l'analyse algorithmique uniquement était suffisant pour afficher des pages de résultats pertinentes. Si techniquement, l'intégration de ce système de notation dans l'algorithme de classement a dû être simple, psychologiquement, en revanche, cela a dû être plus difficile.

Quelles sont les grandes phases d'évolution au niveau des techniques de référencement ?

En synthèse, on peut distinguer cinq périodes distinctes.

De 1995 à 1999 : la technique tournait autour des meta-tags, de la répétition des mots clés dans le texte et de l'inscription dans les annuaires. Au niveau marketing, il s'agissait de rechercher des mots-clés à l'intuition et de mesurer les positions.

De 2000 à 2001: c'est le début du référencement de sites dynamiques, de l'URL rewriting, des pages satellites créées manuellement. C'est aussi le début des liens sponsorisés aux Etats-Unis et de l'optimisation simple des enchères CPC. Au plan marketing, on analyse le trafic généré par les moteurs de recherche.

Référencement : les années 2002 - 2004 ont été les années de la professionnalisation.

De 2002 à 2004: ce sont les années de la professionnalisation. On assiste au début du netlinking, à cause de l'obsession du page rank, à l'explosion des machines à générer des pages satellites, au recours massif aux techniques de spamdexing. On dénombre 100 000 annonceurs au niveau mondial, on asssite à l'explosion du prix du clic aux Etats-Unis et à l'apparition des plates-formes de bid management afin de gérer les campagnes de dizaines de milliers de mots clés.

Sur le plan marketing, le tracking des ventes générées par le référencement naturel fait son apparition, ainsi que des modèles de prévisionnels de trafic et de vente. Le blacklisting caractérise également ces trois années : c'est la fin de la période de tolérance, des milliers de sites sont blacklistés à travers le monde.

La période 2005 / 2006 est caractérisée par la victoire des "white SEO".
Les techniques de spamdexing, suite à la vague de blacklisting de 2004, sont abandonnées. C'est le début du référencement éditorial et de l'allègement de l'indice de densité idéal. Côté liens sponsorisés, on assiste au début des retours sur investissement négatifs dans le secteur du tourisme en raison des CPC qui explosent et à un recentrage sur les stratégies longue traine.

C'est aussi l'explosion du recours aux liens sponsorisés en Europe dans tous les secteurs et une rationalisation des politiques d'optimisation des enchères s'effectue. Enfin, on voit des modèles de prévision de chiffre d'affaires s'élaborer. Du côté du blacklisting, les pages de dénonciation des tricheurs font leur apparition.

2007 / 2008 : les années "Universal search et Web 2".

Dernière période : 2007 / 2008, ou les années "Universal search et Web 2". On pratique le référencement spécifique dans les modules "Universal search" (Google Maps, Google News, Google image, Google Video, Google Blog, etc.). Les webmasters ont accès au centre Google, le netlinking 2.0 (blogs, réseaux sociaux, sites de contenu collaboratif, RSS, etc.) se diffuse, et la généralisation des stratégies de référencement fondées sur le contenu s'opère.

Quant aux liens sponsorisés, on voit la mise en place de filtres anti-fraude au clic se mettre en place chez Google, ainsi que l'introduction du Quality score. La modélisation des cycles de recherche des internautes est possible. On constate aussi la dépendance d'un nombre croissant de sociétés au chiffre d'affaires "Google". Côté blacklisting : les pages de dénonciation des vendeurs de liens font leur apparition.