|
|
|
Olivier Andrieu Consultant en référencement Abondance.com
|
L'expert
indépendant, qui étudie l'évolution des outils
de recherche, notamment via son site d'informations professionnelles
Abondance.com,
fait le point sur les grandes tendances actuelles. Parallèlement,
il est membre fondateur de l'Internet Positioning European Association
(IPEA), qui regroupe les plus grands acteurs du référencement
en France.
Propos recueillis par Philippe Guerrier le 09
juin 2000 .
JDNet.
Les moteurs de recherches ont du mal à suivre l'expansion
exponentielle du World Wide Web. Existe-il un réel No man's
Land ? Olivier Andrieu : Les moteurs comme Altavista ou Inktomi
explorent plus d'un milliard de pages. Ils enlèvent les
pages doublons et celles qui sont inutiles pour arriver à
350-500 millions de pages. Grosso modo, ils regroupent tout de
même la substantifique moëlle de l'Internet. Inktomi
précise d'ailleurs que sur ces 500 millions, il n'y a que
110 millions de pages vraiment demandées. Il travaille
d'ailleurs sur deux index différents : l'un qui s'appelle
"Best of the Web" de 110 millions et un second, moins
utilisé, qui regroupe 390 millions de pages. Le but n'est
pas de tout référencer mais de se limiter aux pages
qui apportent un vrai contenu. Nous parlons des pages statiques
et non pas du "Web invisible" que sont les informations
dans les bases de données. Par exemple, les archives de
presse. Pour l'instant, nous n'avons pas vraiment de solutions
simples à ce sujet.
Que
privilégient les moteurs de recherche ? L'exhaustivité étant impossible à réaliser,
ils favorisent la pertinence et donc la qualité. On ne
peut presque plus parler d'annuaire ou de moteur de recherche
mais d'outils de recherche. De plus, les internautes ne font pas
la différence entre ces différents outils. Tous
les outils deviennent donc mixtes, à la fois annuaire et
moteur. Voila est un bon exemple. Il donne en premier lieu les
réponses annuaires qui permettent de dégrossir le
nombre de réponses. Si on ne trouve pas les réponses
souhaitées, il propose une recherche avec une petite loupe.
Je trouve que c'est un bon moyen pour orienter les internautes,
sachant qu'ils ne peuvent pas être des experts en recherche
sur Internet et connaître les syntaxes avancées.
Autant leur faciliter la tâche.
Quelles
sont les autres pistes explorées par les moteurs de recherche
? Lycos a beaucoup de défauts mais il présente un
grand avantage : il va chercher dans plusieurs sources, par
exemple dans l'Open Directory, Inktomi, etc. J'aime bien la
vision de Ask
Jeeves. L'équipe répertorie des millions de
questions posées en langage naturel en anglais par les
internautes et apporte à chaque fois une réponse.
Elle interprète la question posée et la rapproche
à la base de données de questions. C'est une démarche
totalement contraire aux moteurs de recherche, puisque le site
propose une seule réponse et non plusieurs. Une autre
équipe -Subjex.com
- travaille sur la possibilité d'entamer un dialogue
avec le moteur de recherche qui permet d'affiner au fur et à
mesure de la discussion les recherches. C'est plus humain. Web
Brain propose de son côté des réponses
en 3D. Il faut également s'intéresser aux grandes
nouveautés du côté de Google, la version
moteur d'Altavista ou d'Alltheweb.
Quels
sont les grands chantiers actuels des moteurs de recherche
? Toutes les activités autour du mobile. C'est un peu
tôt pour en parler mais tout le monde travaille dessus.
C'est clair. Les moteurs de recherche travaillent également
sur le haut débit qui à vocation à
se développer fortement dans les prochaines années.
A quoi servent les critères
"off the pages" pour les outils de recherche ? Pour la pertinence des réponses, on prend de plus
en plus souvent des critères "off the pages"
(popularité, indice de clics, etc.) c'est-à-dire
que l'on regarde de moins en moins dans le code HTML pour
établir la pertinence. Ce sont des critères
que l'on ne peut pas manipuler... C'est exprès. Ces
critères sont de plus en plus utilisés car
les outils de recherche sont beaucoup trop spammés.
Altavista indique que sur dix pages soumises, neuf contiennent
du spam. Google a déjà adopté un indice
de popularité des pages à double niveau pour
rendre encore plus pertinentes les réponses. Altavista
a également adopté le procédé.
Ce ne sont plus les balises "métatags"
qui font un bon référencement mais les critères
"off the pages".
Les
requêtes en langage naturelle vont-elles être
généralisées ? Une étude NPD sortie il y a quelques semaines indique
que les requêtes en langage naturel sont passées
de 0% à 11% en trois ans. Le problème, c'est
que le système doit marcher...En France, la société
Albert s'y intéresse. Mais les langages naturels
ont aussi leurs propres limites.
Qu'est-ce
que la théorie du "noeud papillon" développée
par les centres de recherche d'AltaVista, de Compaq et d'IBM
à propos de l'évolution du Web ? Il y a quelques mois, Inktomi a lancé une étude
qui s'appelle Web Map pour savoir comment représenter
le Web aujourd'hui. AltaVista, Compaq et IBM ont sorti de
leur côté la "théorie du noeud
papillon". Le noeud, ce sont les pages du Web liées
entre elles (110 millions de pages). L'aile gauche, ce sont
les pages qui peuvent être jointes via le noeud mais
qui ne contiennent pas de liens vers le noeud. L'aile droite,
c'est l'inverse. Ca donne une espèce de classification-hiérachisation
des pages.
Comment
expliquez-vous que les
moteurs de recherche
séduisent si peu les investisseurs ? Peut-être que les investisseurs voient mal la rentabilité
autour de ces projets de nature technologique en premier
lieu. C'est pour cela que les moteurs de recherche se tranforment
en portail, qui est un aspect beaucoup plus viable. C'est
dommage car c'est un vrai besoin. Une récente étude
de Real Names indique 70% de gens passent leur temps à
chercher des informations sur Internet.
Passons
au domaine du référencement. Pourquoi avoir
créé l'Internet Positioning European Association
(IPEA) qui regroupe les principaux acteurs du référencement
? L'objectif est de fédérer le métier
de référenceur. Il y a sept membres fondateurs.
Nous voulons être représentatifs par rapport
aux outils de recherche. Je vois également l'association
comme un moyen de bâtir de meilleurs outils de recherche.
Nous voulons mettre en place un processus de réflexion
sur les outils de recherche, travailler ensemble et surtout
de ne plus se faire la guerre, via le spam notamment. L'association
voudrait commencer avec les outils de recherche francophones.
Nous voulons également mettre en place une charte
déontologique du métier pour aboutir à
un label notamment vis à vis du client. Il faut clairement
leur dire qu'il est impossible techniquement d'être
positionné en premier sur le mot "MP3"
sur les outils de recherche.
Que
contiendrait la charte ? Ne pas faire de spam, travailler "loyalement",
faire du référencement manuel et non via des
logiciels. Prévenir les clients de ce qu'il possible
de faire dans le domaine du référencement.
Je vois que l'on parle actuellement trop de positionnement
et pas assez de création de trafic. Ce sont deux
choses différentes. Je suis un peu le canard dans
cette histoire car je ne travaille pas sur le positionnement.
Que
devient le site Abondance.com ? Le site me prend de plus en plus de temps. L'audience tourne
actuellement autour de 300.000 pages vues par mois. Je suis
en train de faire beacoup moins de référencement.
Je me concentre sur l'évolution du site, qui comprend
une partie payante avec des informations pointues. J'ai
16.000 abonnés à la mailing list gratuite
et 500 côté payant.
Olivier
Andrieu, 38 ans, est ingénieur Supélec, spécialisé en télématique
et systèmes d'information. Dans un premier temps, il a été
responsable télématique du Crédit Agricole de Guadeloupe, puis
responsable clientèle chez un fournisseur de solutions vidéotex
et audiotex basé dans le sud de la France. Il est alors devenu
chef de projet Internet et responsable de la veille technologique
dans le domaine des télécommunications au sein de l'Adit (Agence
pour la Diffusion de l'Information Technologique) à Strasbourg.
Olivier Andrieu travaille depuis 1993 sur Internet. Il est l'auteur
de plusieurs livres à ce sujet, dont "Créer du trafic
sur son site Web" (Eyrolles, 1999).
|
|
|
|
|
Comment transformer l'internaute en vecteur de promotion ? Dossier
Meilleures pratiques et analyses de sites. Dossier
Plus de 10 000 entreprises de l'Internet et des NTIC. Dossier
Plus de 5 500 prestataires dans les NTIC. Dossier
|
|
|
|
|
|
|
|