"Quand Weborama m'annonce
une page vue, site server m'en annonce 1,2 et Webtrends 4!
" Démonstration tendancieuse d'un webmaster contestataire
cherchant à décrédibiliser les instruments
de mesure d'audience ?
Pas du tout, il s'agit là du simple constat affiché
par l'éditeur d'un site marchand dans une contribution
relevée sur le
forum "audience" du JDNet. Il faut se rendre
à l'évidence, la mesure d'audience sur le Web
n'est pas encore une science exacte.
Pour faire simple, coexistent
aujourd'hui principalement
deux grandes familles d'outils:
- les outils site-centric qui mesurent l'audience directement
depuis le site en comptant le nombre de connexions (Cybermétrie,
Webtrends, eStat, Weboscope...)
- les outils user-centric
qui reposent sur la constitution de panels représentatifs
de la population sur un modèle proche de celui des
sondages (Netvalue, MMXI, Nielsen NetRatings).
En général
l'éditeur choisit d'utiliser au moins un outil site-centric,
quand celui-ci ne lui est pas tout simplement proposé
par son hébergeur ou prestataire-concepteur de site.
Les éditeurs de sites qui commercialisent de l'espace
publicitaire disposent par ailleurs d'une autre source d'information
sur leur audience: leur logiciel de gestion de campagne (un
"ad server" de type Dart de Double Click ou Open
Ad Stream de Real Média). Ainsi leur régie est
en mesure de leur fournir le nombre de bannières affichées
ainsi que le nombre de Pap (pages avec publicité) avec
un niveau de fiabilité qui n'est en général
pas contesté.
Des
décalages surprenants
C'est là que le bât blesse. Chaque fois qu'un
éditeur a la possibilité de comparer ses chiffres
d'audience mesurés avec deux outils site-centric différents,
la comparaison de ces informations fait pratiquement toujours
un apparaître un décalage. Plus troublant encore,
les écarts constatés n'ont en général
rien de constant.
D'abord les techniques
employées par les outils de comptage évoluent,
alors que Webtrends continue de fonctionner à partir
d'une simple analyse de fichiers logs, la plupart des autres
outils utilisent désormais un système de tag
sur chaque page du site à analyser.
Cette dernière technique présente notamment
l'avantage de comptabiliser la page affichée, même
lorsque celle-ci a été appelée depuis
un serveur proxy. Mais d'autres paramètres comme l'emplacement
du tag dans la page html ont également une influence
sur la mesure.
Car lorsqu'un internaute
interrompt le chargement d'une page avant son affichage complet,
le tag peut ne pas être affiché et ne pas générer
de fichier log.
C'est pour tenter de clarifier
quelque peu la situation que Diffusion contrôle a entrepris
de labelliser les outils sur le marché français
pour être en mesure de certifier le trafic annoncé
par les sites souhaitant faire valider leur trafic aux yeux
du marché (lire l'article
JDNet du 01/02/01).
Les
panels en mal de représentativité
Les choses ne sont
pas non plus évidentes pour les outils user centric.
Au delà de leur coût (en général
plus de 100.000 francs par an pour accéder aux informations),
ils ne concernent aujourd'hui que l'audience liée à
une utilisation du Web à domicile. En effet, aucun
panel d'internaute n'est aujourd'hui opérationnel en
entreprise.
Il s'agit là d'une carence importante, en particulier
pour des sites à vocation professionnelle.
En revanche, les panélistes permettent d'obtenir des
informations d'ordre sociologique ou démographique
sur les visiteurs. Mais la notion de représentativité
d'un panel d'internautes est difficile à établir
s'agissant d'échantillons de quelques petits milliers
d'internautes confrontés à plusieurs dizaines
de milliers de sites sur le Web.
Ainsi, si les classements pour les principaux sites du marché
concordent généralement avec les volumes de
trafic enregistrés par les outils site-centric, la
fiabilité des résultats est beaucoup plus aléatoire
pour les sites moins connus.Le CESP
audite actuellement les panels des trois panélistes
actifs sur le marché français (MMXI, NetValue,
eRatings/Médiamétrie). Le résultat de
cette étude approfondie devrait être publiée
début avril.
|
|
Ces difficultés qui se
conjuguent avec les rumeurs de "dopage" de certains
chiffres (chiffres déclaratifs "habillés"
ou trucage et liberté prise par quelques éditeurs
dans le tagage de leur site) entraînent trop souvent
la remise en cause totale de la fiabilité des chiffres
annoncés. Certes
la fiabilité de la mesure n'est pas encore une science
parfaitement exacte mais les démarches de certification
entreprises et les expérimentations d'éditeurs
qui, par tâtonnements, cherchent à croiser les
données et accroître la fiabilité des
mesures doivent inviter à davantage d'optimisme.
|