Mesurer la performance de la communication sur le web

Si la mesure de l’efficacité des bannières, skyscrapers et autres formats est désormais globalement maîtrisée, les choses se corsent dès lors que les éditeurs de sites s’attachent à apprécier la performance d’annonces ou d’articles de catalogues on-line.

La mesure de la performance d'un objet publicitaire est maîtrisée par la plupart des prestataires d'ad-serving. CPM, CPC, CPA sont des ratios largement utilisés et le fait que l'investissement publicitaire sur le Web ait dépassé celui de la radio n'est pas surprenant : les annonceurs sur le web ont désormais une lecture quasi-instantanée de leur Retour Sur Investissement et peuvent moduler rapidement le choix des sites supports.
 
Contrairement à ces objets publicitaires "ad-ons", les fiches-articles des catalogues on-line, annonces, etc., sont des éléments constitutifs d'un site. Leur durée de vie est généralement plus longue et la mesure de leur performance au moins aussi importante. Il s'agit en effet pour l'éditeur du site de déterminer si telle annonce procure un retour satisfaisant à son acheteur, si telle fiche-article doit être maintenue ou supprimée.
 
Or, la seule appréciation du chiffre d'affaires ou de la marge générés par un article est insuffisante. Il s'agit de savoir si toutes les "chances" ont été données à cet article. Chaque page de site marchand constitue effectivement un espace de vente à optimiser et le parallèle avec les techniques de merchandising pratiquées en grande distribution est patent. Seule l'échelle de l'e-merchandising change : rentabilité au cm² contre profits au m²...
 
L' e-merchandising repose sur le plan de marquage (tagage) des pages et de leur contenu.
 
L'incontournable plan de marquage
 
On ne saurait trop insister sur l'importance du plan de marquage qui constitue l'un des facteurs clés de succès de la mesure de la performance de ces objets de gestion. Celui-ci doit être précis, fondé sur l'analyse rigoureuse des besoins en matière de restitution de l'information.
 
On s'attachera à identifier quelles métriques sont en jeu (nombre d'affichages, rang de l'affichage, nombre de clicks-through, de leads, ...) et quels sont les axes d'analyse pertinents (origine de l'internaute, durée de visite avant action, etc.)
 
Ceci posé, force est de constater que les chefs de projets web fourmillent d'idées d'évolutions fonctionnelles et les mises en ligne de nouvelles fonctions destinées aux internautes sont fréquentes. Qui plus est, en web 2.0, la main est donnée aux utilisateurs qui y vont de leur propre enrichissement de contenu...
 
Dans un tel contexte fortement évolutif, il s'agit de s'organiser pour que la captation de l'information de navigation - via le plan de marquage - soit synchronisée avec les évolutions fonctionnelles apportées au site. Il s'agit là d'une démarche d'alignement décisionnel.
 
Concrètement: pas une page en ligne sans qu'elle soit préalablement passée par la "case" web analytics.
 
La nécessaire urbanisation du système d'information décisionnel
 
Grâce à son plan de marquage précis et évolutif remarquablement restitué par l'interface de son fournisseur de solution web analytics, le chargé d'études pourra régulièrement prendre connaissance de la performance des objets ainsi trackés. Il notera peut-être l'exceptionnelle capacité de tel ou tel formulaire à générer des leads...
 
Sera-t-il pour autant à même de mesurer le taux de conversion de ces leads par la force de vente ?
 
C'est clair, dès lors que l'entreprise distribue en multi-canal ou intervient en BtoB, que le périmètre des solutions de web analytics est dépassé. En d'autres termes, Google Analytics ne fait pas le café (so far...).
 
Une réflexion de fond sur l'urbanisation du système d'information décisionnel est dès lors nécessaire. L'objectif consiste, en effet, à fédérer les informations de navigation, les données d'activité commerciale et de facturation afin de permettre la mesure globale de la performance.
 
Certains éditeurs leaders de solutions web analytics l'ont bien compris qui proposent la fourniture de fichiers de logs parsés par leurs soins, structurés au sein d'une base de données relationnelle.
 
Pour réussir ce savant assemblage de données, une bonne pratique consiste à adopter une logique "best-of-breed" consistant à attribuer à chaque brique décisionnelle retenue le périmètre fonctionnel qu'elle maîtrise.
 
La mise en place du système peut s'effectuer par vagues successives, les projets décisionnels étant, par nature, itératifs.
 
De la mesure de la performance à sa prédiction
 
Dépassées, les solutions de web analytics le sont également lorsque l'on souhaite passer d'une démarche descriptive à une approche prédictive.
 
Pour restituer les KPI's d'un site, les serveurs des prestataires en web analytics sauvegardent des tera-octets de données de logs. Leurs interfaces restituent des données plus ou moins agrégées, suffisantes pour apprécier l'évolution du trafic d'un site. Certes, la plupart des solutions proposent une fonction de "segmentation" des internautes qui autorise une lecture plus fine des comportements de navigation.
 
Quoi qu'il en soit, il s'agit clairement de statistiques descriptives.
 
Or, ces tera-octets de données recèlent de la connaissance et les techniques traditionnelles de datamining (scores d'appétences, RFM, CLTV,...) sont bien évidemment applicables au web. Encore faut-il que le chargé d'études ait accès aux données détaillées.
 
Il n'y a donc qu'un pas - conceptuel - de la mesure de la performance à sa prédiction. Le franchir exige à tout le moins une architecture décisionnelle adaptée.

Autour du même sujet