Interviews

Olivier Andrieu
Consultant en référencement
Abondance.com

L'expert indépendant, qui étudie l'évolution des outils de recherche, notamment via son site d'informations professionnelles Abondance.com, fait le point sur les grandes tendances actuelles. Parallèlement, il est membre fondateur de l'Internet Positioning European Association (IPEA), qui regroupe les plus grands acteurs du référencement en France.  

Propos recueillis par Philippe Guerrier le 09 juin 2000 .

JDNet. Les moteurs de recherches ont du mal à suivre l'expansion exponentielle du World Wide Web. Existe-il un réel No man's Land ?
Olivier Andrieu : Les moteurs comme Altavista ou Inktomi explorent plus d'un milliard de pages. Ils enlèvent les pages doublons et celles qui sont inutiles pour arriver à 350-500 millions de pages. Grosso modo, ils regroupent tout de même la substantifique moëlle de l'Internet. Inktomi précise d'ailleurs que sur ces 500 millions, il n'y a que 110 millions de pages vraiment demandées. Il travaille d'ailleurs sur deux index différents : l'un qui s'appelle "Best of the Web" de 110 millions et un second, moins utilisé, qui regroupe 390 millions de pages. Le but n'est pas de tout référencer mais de se limiter aux pages qui apportent un vrai contenu. Nous parlons des pages statiques et non pas du "Web invisible" que sont les informations dans les bases de données. Par exemple, les archives de presse. Pour l'instant, nous n'avons pas vraiment de solutions simples à ce sujet.

Que privilégient les moteurs de recherche ?
L'exhaustivité étant impossible à réaliser, ils favorisent la pertinence et donc la qualité. On ne peut presque plus parler d'annuaire ou de moteur de recherche mais d'outils de recherche. De plus, les internautes ne font pas la différence entre ces différents outils. Tous les outils deviennent donc mixtes, à la fois annuaire et moteur. Voila est un bon exemple. Il donne en premier lieu les réponses annuaires qui permettent de dégrossir le nombre de réponses. Si on ne trouve pas les réponses souhaitées, il propose une recherche avec une petite loupe. Je trouve que c'est un bon moyen pour orienter les internautes, sachant qu'ils ne peuvent pas être des experts en recherche sur Internet et connaître les syntaxes avancées. Autant leur faciliter la tâche.

Quelles sont les autres pistes explorées par les moteurs de recherche ?
Lycos a beaucoup de défauts mais il présente un grand avantage : il va chercher dans plusieurs sources, par exemple dans l'Open Directory, Inktomi, etc. J'aime bien la vision de Ask Jeeves. L'équipe répertorie des millions de questions posées en langage naturel en anglais par les internautes et apporte à chaque fois une réponse. Elle interprète la question posée et la rapproche à la base de données de questions. C'est une démarche totalement contraire aux moteurs de recherche, puisque le site propose une seule réponse et non plusieurs. Une autre équipe -Subjex.com - travaille sur la possibilité d'entamer un dialogue avec le moteur de recherche qui permet d'affiner au fur et à mesure de la discussion les recherches. C'est plus humain. Web Brain propose de son côté des réponses en 3D. Il faut également s'intéresser aux grandes nouveautés du côté de Google, la version moteur d'Altavista ou d'Alltheweb.

Quels sont les grands chantiers actuels des moteurs de recherche ?
Toutes les activités autour du mobile. C'est un peu tôt pour en parler mais tout le monde travaille dessus. C'est clair. Les moteurs de recherche travaillent également sur le haut débit qui à vocation à se développer fortement dans les prochaines années.

A quoi servent les critères "off the pages" pour les outils de recherche ?
Pour la pertinence des réponses, on prend de plus en plus souvent des critères "off the pages" (popularité, indice de clics, etc.) c'est-à-dire que l'on regarde de moins en moins dans le code HTML pour établir la pertinence. Ce sont des critères que l'on ne peut pas manipuler... C'est exprès. Ces critères sont de plus en plus utilisés car les outils de recherche sont beaucoup trop spammés. Altavista indique que sur dix pages soumises, neuf contiennent du spam. Google a déjà adopté un indice de popularité des pages à double niveau pour rendre encore plus pertinentes les réponses. Altavista a également adopté le procédé. Ce ne sont plus les balises "métatags" qui font un bon référencement mais les critères "off the pages".

Les requêtes en langage naturelle vont-elles être généralisées ?
Une étude NPD sortie il y a quelques semaines indique que les requêtes en langage naturel sont passées de 0% à 11% en trois ans. Le problème, c'est que le système doit marcher...En France, la société Albert s'y intéresse. Mais les langages naturels ont aussi leurs propres limites.

Qu'est-ce que la théorie du "noeud papillon" développée par les centres de recherche d'AltaVista, de Compaq et d'IBM à propos de l'évolution du Web ?
Il y a quelques mois, Inktomi a lancé une étude qui s'appelle Web Map pour savoir comment représenter le Web aujourd'hui. AltaVista, Compaq et IBM ont sorti de leur côté la "théorie du noeud papillon". Le noeud, ce sont les pages du Web liées entre elles (110 millions de pages). L'aile gauche, ce sont les pages qui peuvent être jointes via le noeud mais qui ne contiennent pas de liens vers le noeud. L'aile droite, c'est l'inverse. Ca donne une espèce de classification-hiérachisation des pages.

Comment expliquez-vous que les moteurs de recherche séduisent si peu les investisseurs ?
Peut-être que les investisseurs voient mal la rentabilité autour de ces projets de nature technologique en premier lieu. C'est pour cela que les moteurs de recherche se tranforment en portail, qui est un aspect beaucoup plus viable. C'est dommage car c'est un vrai besoin. Une récente étude de Real Names indique 70% de gens passent leur temps à chercher des informations sur Internet.

Passons au domaine du référencement. Pourquoi avoir créé l'Internet Positioning European Association (IPEA) qui regroupe les principaux acteurs du référencement ?
L'objectif est de fédérer le métier de référenceur. Il y a sept membres fondateurs. Nous voulons être représentatifs par rapport aux outils de recherche. Je vois également l'association comme un moyen de bâtir de meilleurs outils de recherche. Nous voulons mettre en place un processus de réflexion sur les outils de recherche, travailler ensemble et surtout de ne plus se faire la guerre, via le spam notamment. L'association voudrait commencer avec les outils de recherche francophones. Nous voulons également mettre en place une charte déontologique du métier pour aboutir à un label notamment vis à vis du client. Il faut clairement leur dire qu'il est impossible techniquement d'être positionné en premier sur le mot "MP3" sur les outils de recherche.

Que contiendrait la charte ?
Ne pas faire de spam, travailler "loyalement", faire du référencement manuel et non via des logiciels. Prévenir les clients de ce qu'il possible de faire dans le domaine du référencement. Je vois que l'on parle actuellement trop de positionnement et pas assez de création de trafic. Ce sont deux choses différentes. Je suis un peu le canard dans cette histoire car je ne travaille pas sur le positionnement.

Que devient le site Abondance.com ?
Le site me prend de plus en plus de temps. L'audience tourne actuellement autour de 300.000 pages vues par mois. Je suis en train de faire beacoup moins de référencement. Je me concentre sur l'évolution du site, qui comprend une partie payante avec des informations pointues. J'ai 16.000 abonnés à la mailing list gratuite et 500 côté payant.

Olivier Andrieu, 38 ans, est ingénieur Supélec, spécialisé en télématique et systèmes d'information. Dans un premier temps, il a été responsable télématique du Crédit Agricole de Guadeloupe, puis responsable clientèle chez un fournisseur de solutions vidéotex et audiotex basé dans le sud de la France. Il est alors devenu chef de projet Internet et responsable de la veille technologique dans le domaine des télécommunications au sein de l'Adit (Agence pour la Diffusion de l'Information Technologique) à Strasbourg. Olivier Andrieu travaille depuis 1993 sur Internet. Il est l'auteur de plusieurs livres à ce sujet, dont "Créer du trafic sur son site Web" (Eyrolles, 1999).




 

Dossiers

Marketing viral

Comment transformer l'internaute en vecteur de promotion ? Dossier

Ergonomie

Meilleures pratiques et analyses de sites. Dossier

Annuaires

Sociétés high-tech

Plus de 10 000 entreprises de l'Internet et des NTIC. Dossier

Prestataires

Plus de 5 500 prestataires dans les NTIC. Dossier

Tous les annuaires
 
 

Sondage

Ce qui vous a le plus embêté avec le bug de Google :

Tous les sondages